Files |  Tutorials |  Articles |  Links |  Home |  Team |  Forum |  Wiki |  Impressum

Aktuelle Zeit: Mi Sep 19, 2018 11:31

Foren-Übersicht » Programmierung » Allgemein
Unbeantwortete Themen | Aktive Themen



Ein neues Thema erstellen Auf das Thema antworten  [ 7 Beiträge ] 
Autor Nachricht
 Betreff des Beitrags: NVIDIA RTX real-time raytracing
BeitragVerfasst: Fr Aug 24, 2018 10:43 
Offline
DGL Member

Registriert: Fr Mai 11, 2012 13:25
Beiträge: 228
Programmiersprache: c++, c, JavaScript
Hallo allerseits,

NVIDIA hat ja auf der Gamescon seine neue Grafikkartengeneration (RTX) vorgestellt und dazu eine Technologie mit der man scheinbar auf RTX Karten besonders schnell Geometrie tracen kann.
Damit soll man sehr viele Lichtquellen und deren Schatten und Reflexionen von komplexen Modellen im Worldspace berechnen können.
RTX Karten haben eine spezielle Architektur und können diese Algorithmen daher angeblich 6x so schnell ausführen wie andere Karten.
Es gibt schon einige Trailer wo man das in Aktion sieht.

Was haltet ihr davon? Marketingaktion oder tatsächlich die Zukunft des Shadings?

In meiner Vorstellung muss man sowohl die Anzahl der Rays als auch die Anzahl der zu tracenden Dreiecke enorm reduzieren, selbst wenn man einen Weg gefunden hat, es um ein vielfaches zu beschleunigen.
Ich denke auch, dass man das auf den Videos sieht, die bisher veröffentlicht wurden, die Reflexionen sehen irgendwie unscharf aus, ich vermute auch, dass scharfe Schattenkanten damit nicht für komplexe Geometrie zu erreichen sein werden.

Allenfalls eine coole Technologie, es werden scheinbar auch mit Deep Learning entwickelte Filter verwendet, um die vermeintlich geringe Auflösung hochzufaken.
Finde aber auch, dass bei der Präsentation etwas übertrieben wurde (aus Marketingsicht verständlich), und dass es trotzdem sehr viel Performance kosten wird, eine nicht allzu komplexe Geometrie zu tracen, und dass man diese reduzierte Geometrie auch erstmal erstellen muss.
Ich denke aber, solange die reflektierenden Oberflächen nicht zu glatt und die Schatten nicht zu scharf sein müssen, ist es ein tolles neue Feature in der 3D-Echtzeitgrafik.


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: Sa Aug 25, 2018 01:43 
Offline
DGL Member
Benutzeravatar

Registriert: Di Dez 03, 2002 22:12
Beiträge: 2091
Wohnort: Vancouver, BC, Canada
Programmiersprache: C++
Ich hab die praesentation der Quadro RTX karten live gesehen letzte Woche und habe mir dannach am nVidia stand alle moeglichen demos angeschaut und mich informiert.

Ich glaube aktuell ist es leider noch mehr schein als sein und es braucht noch ein paar generationen bis es wirklich gut nutzbar ist.
Sie haben die raytracing und BVH (Bounding Volume Hierarchy) berechnung in die Hardware bekommen was es natuerlich sehr viel schneller macht, aber es haengt immernoch stark von der triangle anzahl ab. In der StarWars demo haben sie mir das wireframe gezeigt, welches extrem low-poly fuer das environment war. Die character selbst waren recht high poly.

Und ja, es laufen post-denoise-filter um die schatten zu blurren (zuwenige samples vom raytracing). Der denoise filter macht einen guten job, allerdings fuer hobby entwickler aktuell im endeffekt nutzlos. Denn man muss eine demo seines fertigen spiels an nVidia schicken, die nutzen die demo um ihren algorithmus zu trainieren und packen dann die ergebnisse extra fuer dein spiel in den Treiber. Also fuer normale menschen unmoeglich.


Die ganze technologie steckt noch in den kinderschuhen. Sie funktioniert fuer die paar demos und simple dinge, aber alles was etwas komplexer wird geht aktuell noch nicht.

Aber, ich werde demnaechst fuer die Arbeit 2 Quadro RTX mit NVLink bekommen - dann kann ich testen und mehr sagen! :D


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: Sa Aug 25, 2018 09:48 
Offline
DGL Member

Registriert: Fr Mai 11, 2012 13:25
Beiträge: 228
Programmiersprache: c++, c, JavaScript
Danke für die Infos!
Weißt Du, was mit einem Gigaray gemeint Ist? Es heißt ja z.B. die 2080 ti schafft 10 Gigarays.
Bei Full hd und 60 fps wären das so 80 rays pro Pixel.
Sind das dann die Anzahl der Dreiecke, die man pro Pixel tracen kann? Das wär schon sehr wenig, das schafft wohl jede GK mit ein paar Teraflops, aber einfach Gigaray ohne eine Relation zur Anzahl der Dreiecke pro ray anzugeben macht doch auch keinen Sinn.


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: Sa Aug 25, 2018 09:57 
Offline
DGL Member
Benutzeravatar

Registriert: Di Dez 03, 2002 22:12
Beiträge: 2091
Wohnort: Vancouver, BC, Canada
Programmiersprache: C++
Genau die gleiche Frage hatte ich ein paar der nVidia leute auch gefragt, auf was sich die 10 Gigarays beziehen. Keiner wusste so recht eine Antwort und alle meinten nur "das haben die halt irgendwie sich so zurecht gerechnet".

Ich glaube es ist ein theoretischer wert. Also die haben geschaut wie lang ihre hardware braucht um einen ray zu tracen mit einem triangle. Aus dem wert haben sie dann hochgerechnet wieviele sie in einer sekunde schaffen. Aber wie gesagt, das ist nur meine Vermutung zusammen gestückelt mit was die nicht-viel-wissensen nVidia leute gesagt haben


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: So Aug 26, 2018 09:49 
Offline
DGL Member
Benutzeravatar

Registriert: Mo Sep 23, 2002 19:27
Beiträge: 5810
Programmiersprache: C++
Die Tage hat Matthäus von AMD zum Thema Raytracing gestreamt, und da gings auch um die 10 Gigarays/s. Das hat sehr stark mit der Kohärenz, und damit der Aufteilung der Szene zu tun. Also wie gut sich die einzelnen Warps (NVDIA) bzw. Wavefronts (AMD) auslasten lassen. Das maximale Potential bekommt man nur wenn alle ganz unten am Ende vom BVH gegen Dreiecke testen. Wenn die aber teilweise noch am Traversieren der BVH sind sinkt die Auslastung und damit auch die Anzahl an Strahlen pro Sekunde.

_________________
www.SaschaWillems.de | GitHub | Twitter | GPU Datenbanken (Vulkan, GL, GLES)


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: So Aug 26, 2018 14:15 
Offline
DGL Member

Registriert: Fr Mai 11, 2012 13:25
Beiträge: 228
Programmiersprache: c++, c, JavaScript
Aha, hab grad gesehen, AMD hat schon im März ebenfalls eine Realtime-Tracing-Engine angekündigt, konnte aber keine technischen Details dazu finden, kann man sich den Stream vom Matthäus noch irgendwo ansehen?


Nach oben
 Profil  
Mit Zitat antworten  
 Betreff des Beitrags: Re: NVIDIA RTX real-time raytracing
BeitragVerfasst: Mo Aug 27, 2018 20:02 
Offline
DGL Member
Benutzeravatar

Registriert: Mo Sep 23, 2002 19:27
Beiträge: 5810
Programmiersprache: C++
Die Aufzeichnung des Streams gibts hier: https://www.twitch.tv/videos/300948313

Danach gings noch ein bisschen im Chat weiter, k.a. ob das bei Twitch mit aufgezeichnet wird.

_________________
www.SaschaWillems.de | GitHub | Twitter | GPU Datenbanken (Vulkan, GL, GLES)


Nach oben
 Profil  
Mit Zitat antworten  
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen Auf das Thema antworten  [ 7 Beiträge ] 
Foren-Übersicht » Programmierung » Allgemein


Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Suche nach:
Gehe zu:  
  Powered by phpBB® Forum Software © phpBB Group
Deutsche Übersetzung durch phpBB.de
[ Time : 0.014s | 15 Queries | GZIP : On ]