News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

Ich habe alle Probleme doch schon erklärt. Immer wieder zu erklären wie das Prozedere ist hat daran bis jetzt nichts geändert.
 
Darkblade08 schrieb:
Ich finde es immer interessant, wie oft das Wort "KI" oder "Künstliche Intelligenz" in der den RTX Diskussionen verwendet wird.

Was Nvidia da als "KI" bezeichnet, ist nicht mehr als eine Ansammlung von Algorithmen. Das hat mit Künstlicher Intelligenz nichts zu tun.

Naja, aber macht sich gut als Marketing-Buzzword und scheint zu funktionieren... Darf man denke ich nicht so eng sehen.

Deep-Learning ist auch nur Bruteforcing mit Extra-Schritten... klingt nur einfach abwertender...
 
Darkblade08 schrieb:
Ich finde es immer interessant, wie oft das Wort "KI" oder "Künstliche Intelligenz" in der den RTX Diskussionen verwendet wird.

Was Nvidia da als "KI" bezeichnet, ist nicht mehr als eine Ansammlung von Algorithmen. Das hat mit Künstlicher Intelligenz nichts zu tun.

Man kann Deep Learning definitiv als KI = Künstliche Intelligenz verstehen. Sie mag primitiv sein, doch ist es durchause eine KI. Es geht nicht nur um die Algorithmen selbst, sondern deren Verkettung im neuronalen Netzwerk.

Diese Netzwerke entwickeln mit der Zeit Vorlieben und bevorzugte Herangehensweisen. Zu mehr darf man sie auch nicht veranlassen.

Sun-Berg schrieb:
Ich habe alle Probleme doch schon erklärt. Immer wieder zu erklären wie das Prozedere ist hat daran bis jetzt nichts geändert.

Ja, und ich habe dich mehrmals gefragt was du genau meinst oder wo das Problem liegt. Erklärt haben mir deine Texte nicht sonderlich viel.
 
Du hast exakt ein Mal gefragt.

Und hier nochmal meine Posts:

Sun-Berg schrieb:
Darf man zum Schluss kommen, dass DLSS nicht zum Performancevergleich hinzugezogen werden kann, da ja prinzipiell die Nvidia Hardware nur mit einer serverseitigen Unterstützung zu ihrer Leistung kommt? Anders gesagt, ein Teil wird durch das neuronale Netzwerk berechnet und von den Tensor Cores auf das jeweilige Spiel angewendet. Somit kann nicht mehr behauptet werden, die GPU alleine würde die Berechnung der Grafik auf sich nehmen. Also ist sie auch nicht mit einer GPU vergleichbar, die das muss/kann.

Einige Fragen bleiben allerdings. Und die kann bestimmt jemand beantworten: Muss das neuronale Netzwerk dauernd mit Daten des jeweiligen Spiels geupdatet werden? Was ist wenn Spiele Updates kommen oder Erweiterungen? Muss man dann darauf warten ein Update von Nvidia zu erhalten? Wie lange muss/kann/wird das neuronale Netzwerk ein Spiel supporten? Was ist, wenn in 3-4 Jahren der Support wegfällt? Läuft dann DLSS nicht mehr? Oder reichen alte Daten?

Ich finde diese Entwicklung hin zur serverseitigen Berechnung und Always-Connected nicht interessant. Es entsteht eine zusätzliche Abhängigkeit. Irgendwann verschwindet dann ein großer Teil unseres Hobbys, bei dem man seine Hardware kauft, optimiert, ersetzt, tweakt etc. Dann kauft man ein Abo und zahlt wohl für Qualität der Ausgabe der gestreamten Inhalte. Man kann dann seine Hardware immerhin noch für alte Spiele nutzen und den Enklen zeigen.

Eine meiner Fragen ist ja wahrscheinlich beantwortet: Es braucht wahrscheinlich keine dauerhafte Verbindung. Aber es müsste jeweils ein neues Paket berechnet werden, wenn Texturupdates oder Content Updates nachgereicht werden. Was ist mit Mods? Der Rest der Fragen bleibt bzw. kann nur mittels Spekulation beantwortet werden. Man wird sehen müssen wie sich das weiterentwickelt.


Sun-Berg schrieb:
Ich bin auch auf die Tests gespannt.

Ich finde es nicht gut, wenn wir in Zukunft darauf angewiesen sein sollten, dass Berechnungen zur Bildausgabe am eigenen PC durch AI/Cloud-Computing unterstützt werden müssen. Denn nicht nur der Client muss zwingend eine Verbindung mit Nvidia eingehen sondern auch die Entwickler.

Es geht hier zwar nur um Kantenglättung, aber damit wird es wohl nicht aufhören. Entweder wir sin an einem Punkt wo man mit Consumer Hardware ein Limit erreicht hat oder man hat gemerkt, dass es billiger ist den Consumern die Rechenarbeit abzunehmen und gleichzeitig zu zwingen eine dauerhafte Verbindung einzugehen. Es verändert schliesslich das ganze Geschäftsmodell. Aber ich gehe hier womöglich zu weit. Es ist ja nur Kantenglättung.

Ob jetzt always connected oder nur einmal connecten um diese "Blaupause" zu laden die dann von den Tensorcores interpretiert wird ändert ja nichts am Grundsatz, dass eben Bildqualität/Leistung in diesem Fall durch Kantenglättung nur gegeben werden kann in Abhängigkeit von einer externen Berechnung. Das gab es bis jetzt so noch nicht.

Ich finde das problematisch, du offenbar nicht.
 
AncapDude schrieb:
Ich kann den AA-Hype eh nicht nachvollziehen, es ist das Erste was ich immer ausstelle, Pixel stören mich überhaupt nicht und bringt übelst Performance und mehr Schärfe. Und "Deep Learning" und "neuronales Netz" sind eh wieder so Buzzwords wo ich erstmal auf Distanz gehe. Sollte hier wirklich was serverseitig berechnet werden ist das für mich sowieso ein No-Go. Aber schön, dass es wieder neue Grakas gibt die die alten billiger machen ;)

Genau hier besteht die grosse Chance für DLSS ( Chance da noch unklar) das man AA gratis mitnehmen kann und auch die unschärfe des derzeitig guten TAA gegen Kantenflimmer ohne die unchärfe kommt und man dabei auch kaum Leistung verliert.
Wie gut nun DLSS der AA -Qualität als auch der unschärfe ist werden aber erst Test zeigen müssen.

____________________________________________________________
Das es propitär ist mag für uns Kunden schlecht sein , vorallem AMD Nutzer , aber die machen sich auch die Mühe solche Sachen umzusezten, von daher bin ich absolut der Meinung das Nv hier das auch propitär auf den Markt bringen darf.
Wenn Samsung nun in der Ferigung der grosse Durchbruch gelingt werden die auch nicht zu TSMC gehen und sagen : " Jungs wir haben für unsere Kunden den durchbruch geschafft , wollten euch nur die Pläne eben vorbeibringen damit eure abnehmer auch davon profitieren können ".

Bei AA gabs schon immer ein paar "eigene" Creationen neben MSAA und SSAA von beiden Herstellern.
MLAA,MFAA,EQAA,CSAA, und prä 2010 noch einige andere.

Wenigstens beim Post Processing sind sie da auf einer wellenlänge mit
FXAA was man heute in Zeiten von smaa aber eigentlich komplett streichen könnte ( sollen die Konsoleros damit glücklich werden)
SMAA , das ganz ok ist je nach Game .
TAA was das flimmer wirklich gut meist beseitigen kann, wenn auch auf kosten der unschärfe.

Wenn NV jetzt mit DLSS bei AA smaa obsolent macht und mit derselben Leistung dann MSAA oder MFAA möglich wird + TAA ohne unschärfe , dann wäre das richtig gut.

Und AMD wird darauf sicher auch reagieren mit einer eigenen Lösung, hoffentlich.
 
Zuletzt bearbeitet:
Warum auf der RTX das DLSS nicht kostet :
Die Cuda-Cores werden nicht genutzt sondern nur die sonst nutzlosen "DeppLearning"-Cores.
(upps, verschrieben, klingt aber gut)

Wenn z.Vgl. ne Pascal aber kein teures DLSS benutzt sondern weiterhin TAA bzw. SMAA/FXAA kann ich nicht an
einen 30% Performancesprung glauben.
Da ein großes Lob an CB, was immer zeigt, was die einzelnen AA-Modi kosten.
Daher werden die Cuda-Cores von RTX maximal soviel entlastet, wie Pascal für ein leichtes OLD-AA braucht.
 
Zuletzt bearbeitet:
Sun-Berg schrieb:
Eine meiner Fragen ist ja wahrscheinlich beantwortet: Es braucht wahrscheinlich keine dauerhafte Verbindung. Aber es müsste jeweils ein neues Paket berechnet werden, wenn Texturupdates oder Content Updates nachgereicht werden. Was ist mit Mods? Der Rest der Fragen bleibt bzw. kann nur mittels Spekulation beantwortet werden.

Texturen haben mit DLSS überhaupt nichts zu tun. Das sind lediglich Füllfarben / Füllflächen, die man beliebig austauschen kann.

Bei DLSS geht es um Kantenglättung, Bildschärfe (keine/weniger Unschärfe!) und weniger Flimmern bei Bewegung.

Das Paket macht übrigens nicht die Arbeit, sondern die neue Hardware auf der GPU tut das. Es beinhaltet eine Art Gehirn wie diese Hardware zu denken hat. Das machst du genau 1x und dann ist die Logik der Software schlau genug selbst zu agieren. Patches kann es immer geben für Bugs oder halt Verbesserungen. Ähnelt sehr stark einem Treiber - nur halt wesentlich detailierter.

Sun-Berg schrieb:
Ob jetzt always connected oder nur einmal connecten um diese "Blaupause" zu laden die dann von den Tensorcores interpretiert wird ändert ja nichts am Grundsatz, dass eben Bildqualität/Leistung in diesem Fall durch Kantenglättung nur gegeben werden kann in Abhängigkeit von einer externen Berechnung. Das gab es bis jetzt so noch nicht.

Die Ergebnisse werden nicht auf dem Server berechnet, sondern dort erfolgen nur Beispiele wie das Ergebnis auszusehen hat. Dem Neuralen Netz wird beigebracht wie es zu agieren hat. Welche Bildergebnisse gut und welche schlecht sind.
Nach unzähligen Wiederholungen auf dem Server ist das NN schlau genug selbst zu agieren und das zu unterscheiden.

'Was ist ein Kreis?
'Was ist ein Dreieck?
'Was ist ein Viereck/Quadrat? Mischform?
'Was ist ein Hund? Blume? Mensch?
usw.

Alles was das NN auf deiner Grafikkarte tut ist diese zu markieren und die Außenränder hervorzuheben. Darüber legt es dann die Füllfarben (Texturen) und gibt das Ergebnis nach Berechnung an den Monitor. Das erfolgt in Millisekunden. Natürlich ist das von mir hier stark vereinfacht. In Wirklichkeit passieren Millionen Dinge gleichzeitig. Das finale Bild auf deinem Monitor sieht jedoch sehr sehr gut aus. (Journalisten berichten das von der Gamescom mit direktem Augenvergleich alt -> neu)

Du musst dir die Details wie es funktioniert bei den ersten Tests durchlesen. Es ist so faszinierund. Einfach, jedoch bahnbrechend.

Sun-Berg schrieb:
Ich finde das problematisch, du offenbar nicht.

Vielleicht befasst du dich etwas mehr mit dem Konzept.

DLSS und die Servergeschichte ist nicht ansatzweise diablo wie du dir das vorstellst.
 
  • Gefällt mir
Reaktionen: .Sentinel.
GerryB schrieb:
Warum auf der RTX das DLSS nicht kostet :
Die Cuda-Cores werden nicht genutzt sondern nur die sonst nutzlosen "DeppLearning"-Cores.
(upps, verschrieben, klingt aber gut)

Wenn z.Vgl. ne Pascal aber kein teures DLSS benutzt sondern weiterhin TAA bzw. SMAA/FXAA kann ich nicht an
einen 30% Performancesprung glauben.
Da ein großes Lob an CB, was immer zeigt, was die einzelnen AA-Modi kosten.
Daher werden die Cuda-Cores von RTX maximal soviel entlastet, wie Pascal für ein leichtes OLD-AA braucht.

Ich gehe davon aus, dass man sich mit DLSS rein auf das Post AA bezogen an die 90% FPS sparen wird können,je nachdem was die interne kommunikation von TC <-> Shader an Leistung kostet. Das ganze im optimalen Fall ohne unschärfe.
Als Bonus wäre es durchaus nett auch 2xssaa noch dazuschalten zu können gratis.

Vermutlich hat hier Nvidia aber bei den Folien im Netz die herumgeistern, wenn sie den echt sind, in einem speziellen Szenario mit 8xssaa + smaa8tx gegen DLSS bei selber Qualität gebencht.
Könnte man sich aber dann eben 4K/DS vorerst sparen, wenn die Tensor cores das so hinbekommen sollten.

Nachtrag !
Mittlerweile gibt es zumindest ein wenig Grundtechnik zu DLSS hier :
https://www.computerbase.de/2018-09...chnitt_eine_kantenglaettung_mit_deep_learning
Wenn hier wirklich SSAA vs. DLSSAA steht, können die 30% wohl sogar noch übertroffen werden.

Metro 2033 LL 1600p drop von 41 FPS auf 24FPS / ~58% Verlust.
oder NV Marketing like 70% mehr fps :evillol: ohne SSAA.

Wenn DLSS hier intern ~ 10% kostet bleiben immer noch an die ~ 50% bzw. ~60% Mehr FPS für DLSS in diesem Beispiel.
 
Zuletzt bearbeitet:
@
Hardware_Hoshi

Ich male nicht den "diablo" an die Wand, ich äussere Bedenken und stelle Fragen, die sicherlich beantwortet werden können in absehbarer Zeit.

Das bedeutet nicht, dass ich die Technik nicht interessant finde. Immerhin habe ich schon Grafikkarten seit den Trident SVGA Karten genutzt.
 
lalelu schrieb:
Da versteht wohl jeder etwas anders.
Aus der Perspektive von Nvidia, mag das stimmen.
Ein bis zwei Stunden auf dem hauseigenen Saturn 5 Supercomputer.
Nur ist so ein System mit 660 Nodes, 5280 V100 GPU's und 660 petaFLOPS AI Leistung derzeit noch einzigartig.
Er sprach davon die ganze Steam Bibliothek mal eben durchlaufen zu lassen. So wie ich das allerdings verstehe benötigt nVidia dafür durchaus den Source Code des Spiels um das zu automatisieren.
Mal eben durchlaufen lassen kann man da irgendwelche beliebigen Spiele also nicht so einfach.

Man muss auch bedenken, dass das Bild mit jeder Grafik-Einstellung im Spiel unterschiedlich aussieht und wieder neu trainiert werden muss. Da müssten also auch jede Menge Profile für alle möglichen Grafikeinstellungen erstellt werden.
So einfach ist das mit dem "durchlaufen lassen" also nicht.
 
noxon schrieb:
Er sprach davon die ganze Steam Bibliothek mal eben durchlaufen zu lassen. So wie ich das allerdings verstehe benötigt nVidia dafür durchaus den Source Code des Spiels um das zu automatisieren.

Wieso das? Quellen?

Man muss auch bedenken, dass das Bild mit jeder Grafik-Einstellung im Spiel unterschiedlich aussieht und wieder neu trainiert werden muss. Da müssten also auch jede Menge Profile für alle möglichen Grafikeinstellungen erstellt werden.
So einfach ist das mit dem "durchlaufen lassen" also nicht.
Der Witz von deep- Learning oder einer KI ist doch das deuten von Mustern bzw. der render- Matrix. Unabhängig von Grafikeinstellung, nur anhand des Erscheinungsbildes bzw. des Art- Styles der Software. Das sieht man ja auch sehr schön an den unterschiedlichen Denoising- Demos, in welchen die KI mit unterschiedlichsten Szenarien ein verrauschtes Bild welcher Art auch immer in ein sauberes Bild verwandelt.

Meines erachtens ist ja der Witz der Tensor- Cores, dass sowas dann adaptiv funktioniert.

Grüße
Zero
 
ZeroZerp schrieb:
Wieso das? Quellen?
In dem Video das ich verlinkt habe.
Ich weiß nicht genau wie nVidia dieses Training vornimmt, aber du musst garantiert nicht nur irgendwie durch's Spiel laufen.
Garantiert müssen dort auch bestimmte Grafikmuster durch die Game-Engine gejagt werden um so das Neuronale Netz zu trainieren.
Man trainiert ja nicht spezielle Spielszenen im Spiel, sondern versucht das Verhalten der Game-Engine zu trainieren.

Der Witz von deep- Learning oder einer KI ist doch das deuten von Mustern bzw. der render- Matrix. Unabhängig von Grafikeinstellung, nur anhand des Erscheinungsbildes bzw. des Art- Styles der Software.
Ich spreche aber von Grafikeinstellungen, die das Erscheinungsbild verändern. Sobald diese geändert werden, dann ist es natürlich auch ratsam dafür entsprechende Werte für das Neuronale Netz zu ermitteln.

Meines erachtens ist ja der Witz der Tensor- Cores, dass sowas dann adaptiv funktioniert.
Die Karte lernt aber nicht während du spielst. Gelernt wird zuvor sehr rechenintensiv offline und dann werden nur noch die optimalen Wichtungswerte für das entsprechende Spiel im neuronalen Netz der Karte angewendet um das Bild zu verbessern.
 
MSAA ist einfach nach wie vor das Beste, diese ganzen Postprocessingfilter mit ihrer Unschärfe gehen mir gehörig auf den Sack. Besonders geil, wenn MSAA garnichtmehr angeboten wird.

Eine gute neue Technik wäre wirklich erfreulich. Aber bitte nicht Nvidia only.
 
moep99 schrieb:
MSAA ist einfach nach wie vor das Beste, diese ganzen Postprocessingfilter mit ihrer Unschärfe gehen mir gehörig auf den Sack. Besonders geil, wenn MSAA garnichtmehr angeboten wird.

Eine gute neue Technik wäre wirklich erfreulich. Aber bitte nicht Nvidia only.

Jo 1+
Verstehe nicht wieso bei Crysis ungepatcht , mit "edgedetect" in der Config, die Vegetation so gut aussieht auch wenn man AA=off setzt.
Da hat sich in den letzten Jahren Nichts Gutes entwickelt.
(Kann es sein das NV am LOD rumspielt und daher viele Games so auf AMD flimmern ?)

SSAA vs. DLSS ist nicht Praxis. Daher für den Performancegewinn Nichtssagend.
Man kann maximal Qualität mit der 2080 gewinnen.
Mit ner 1080@4k wird man kaum SSAA nutzen sondern eher TAA oder SMAA mit 1-2 fps Verlust ggü.
AA=off.
 
Zurück
Oben