Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent

Hah gut das du Hairworks bringst. Mit Tress FX von AMD gibt es einen Open Source Zugang der weniger Leistung kostet und besser aussieht soviel zu proberitaren Mist von Nvidia
 
ampre schrieb:
Hah gut das du Hairworks bringst. Mit Tress FX von AMD gibt es einen Open Source Zugang der weniger Leistung kostet und besser aussieht soviel zu proberitaren Mist von Nvidia
Soso- Man kann den Spieß auch umdrehen. Von wegen nVidia bremst durch Tesselation bei Hairworks die Konkurrenz aus:

In der Praxis funktioniert dies auch ganz gut, allerdings hatten AMD-Grafikkarten bei Release einen Vorteil: Grafikkarten der Graphics-Core-Next-Architektur haben erfahrungsgemäß mehr GPGPU-Leistung als das äquivalente NVIDIA-Pendant. Daher konnten AMD-Grafikkarten TressFX-Haare auch schneller berechnen

Dann schluckt mal Eure eigene Medizin... Da wird sich doch nicht jemand mit seiner eigenen Technik einen Vorteil verschafft haben und eine "Schwäche" des Konkurrenzproduktes ausgenutzt haben?
Sowas machen doch nur "böse" Firmen?

Aber ich weiss ja.... In dem Fall ist das ja dann wieder was gaaaaanz anderes und lässt sich ganz einfach erklären, nicht?
Anhand dieses Beispieles sollte jeder merken, wie dämlich dieser Markenfetischismus und Kleinkrieg hier ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
Wadenbeisser schrieb:
Wenn du dich darüber freust wenn zu deinem Nachteil sinnlos Rechenleistung verpulvert wird um die Konkurrenz auszubremsen dann ist das dein Problem, an der Stelle empfehle ich dir dringend beim nächsten Hardware Kauf einen Blankoscheck an nvidia zu schicken um deren Gewinn noch weiter zu maximieren. Sie sind schließlich kein Wohlfahrtsverein und damit offensichtlich auch nicht verpflichtet im Interesse des Kunden zu handeln.

das "sinnlos Rechenleistungs" passiert dann wohl auch in jedem Game das schlechter aussieht als BF V und dabei weniger FPS bringt, oder eben den Titeln bei denen Maxed out kaum besser aussieht als ein doppelt so schnelleres kleineres Preset.

Genau genommen schießen wir seit Jahren bei Rasterizing mit Kanonen auf Spatzen und keinen interessierst. Dass da bei AMD teils die Flops nicht am Schirm ankommen macht da eher den kleinen Teil aus.

Umso besser das mit RT mal was anderes Einzug hält. Der weg ist weit, der Hardware Hunger astronomisch, aber wenigstens wird sich so optisch auch mal was tun für die Hardware die man einsetzt.

Das video fand ich hierzu top da es schön einzelne Effekte vergleicht. Auch bei 1080p erfährt man welche Tricks und Tweaks nötig sind und was es kostet.
Ergänzung ()

ampre schrieb:
Und nur mal so in 2018 ist eine GTX 970 20% langsamer als eine 390

wundert das bei 8 zu 3.5 GB Ram? 2018 sauft auch eine Fury X regelmäßig ab.

Wenn die Karte zudem zum Release ihre Leistung nicht auf den Schirm bekommt ist dürfte das so ziemlich das Gegenteil von dem sein was AMD gerne hätte - und auch logisch dass hier über zeit mehr zu holen ist. AMD ist ihre "fine Wine" Sache sicher mehr Dorn im Auge als dem Anwender.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn und .Sentinel.
Eine Fury X ist nur 6% hinter einer 980ti und Fury x hatte auch schon so etwas ähnliches wie hbcc integriert.
 
ampre schrieb:

Kann er sich auch nix davon kaufen, wenn die Schnittrate bei 34 FPS liegt. Die 390er ist dort auch nicht vor Dips gefeit... Und das einhergehend mit dem Nachteil in den 3 Jahren der Hauptnutzungszeit der Grafikkarte das langsamere Produkt betrieben zu haben.

Ich weiss nicht, ob das jetzt so der Vorteil ist. Muss jeder für sich entscheiden.
 
ampre schrieb:
Eine Fury X ist nur 6% hinter einer 980ti und Fury x hatte auch schon so etwas ähnliches wie hbcc integriert.
eben.

Anders als dein Beispiel hat es die Fury X, voll aktiv, mit 20% mehr Flops usw über die Zeit eben nicht am Release Pendant (980 TI) vorbei geschafft, anders als andere AMD Karten wie dein Beispiel. Die 390 ist schon allein deshalb das Paradebeispiel weil sie den doppelten VRam hat und ihr Konkurrenzprodukt genau da krankte.

Um zu wissen dass nach X Jahren die R9 390 besser aufgestellt ist als die 970 musste man kein Hellseher sein ;)
 
Die 290 ist auch dabei und die hat 4gb und bei techpowerup ist Fury sogar etwas schneller als eine 980ti die haben auch nicht so viele Gameworks benchmarks ;)
 
Revan1710 schrieb:
Ich finde, dass es ein sehr schmaler Grat ist zwischen paranoid und blauäugig. [...]

Das sehe ich ähnlich, aber ich neige dazu von Fall zu Fall zu gucken und die Vergangenheit dabei im Hinterkopf zu behalten.
Hier hat Nvidia eine mMn sinnvolle Neuerung geschaffen. Das wird im Test auch so gesehen und deshalb kann man dann auch mal ein Lob dafür aussprechen. Das ist aber gleichzeitig kein Freifahrtschein für die Zukunft, denn insgesamt betrachte ich Nvidia eher negativ. Einige der Gründe dafür wurden hier im Thread schon genannt. Empfehle dazu das YouTube Video von AdoredTV.

Fakt ist aber leider auch, ohne Konkurrenz kann Nvidia im oberen Segment schalten und walten, wie sie wollen. Da ist es marktwirtschaftlich nachvollziehbar, das Monopol jetzt auszunutzen, denn der Kunde straft NVidia nicht genug ab*.

Woran ich übrigens auch sämtlichen Technik Portalen durch die Hofberichterstattung eine Mitschuld gebe.
 
  • Gefällt mir
Reaktionen: Revan1710
ZeroZerp schrieb:
Ich weiss was Du meinst. Hatte ja auch vorher schon geschrieben, dass nvidia/die Producer da Blödsinn getrieben haben. Nur ist die Frage, ob das tatsächlich böswillig war. Denn letztendlich hat man sich dadurch ja auch ein wenig ins eigene Fleisch geschnitten. da kann man viel spekulieren...


Das würde der Markt relativ schnell bestrafen.


Genau- Das Culling setzt vor der Rasterisierung ein, sonst wäre es relativ nutzlos. Es ist ja gerade der Witz des Systems, verdeckte Dreiecke eben nicht zu rastern - Das kann auch auf Objektebene passieren, dazu braucht man aber dann z.B. die Middleware Umbra.

Die primitive Shader und das Mesh Shading hat da z.B. enorme Vorteile. Dadurch, dass quasi die gesamte Szene im Puffer der Grafikkarte bearbeitet werden kann, kann diese dann unter Anderem auch gleich ein extrem effizientes, schnelles culling durchführen. Unter Anderem deshalb liegt in der Technik ein großes Geschwindigkeitspotenzial.
Dann muss man nvidia schon für verdammt inkompetent halten um zu glauben das durch Zufall genau der Arbeitspunkt angestrebt wird bei dem die eigene Architektur in Benchmarks deutlich besser weg kommt.

Zudem kann der Markt herzlich wenig bestrafen wenn es der Kunde nicht tut denn diesesorgen schließlich für den entsprechenden Warenabsatz. Was von den ganzen Spielchen die nvidia im laufe der letzten 10 Jahre abgezogen hat hat der Kunde und damit der Markt bestraft? So wie ich das sehe hat der Markt es eher belohnt.
Das ist eben wie bei VW. Egal was der Konzern treibt udn welche Skandale es nach sich zieht, nichts hat ernsthafte Konsequenzen.

Des weiteren sehe ich nicht wo der Sinn deiner Argumentation zum Culling im Bezug auf die Tesselation liegen soll denn so wie ich das sehe läuft es doch eher so ab. Bevor das Culling darüber entscheiden kann ob etwas verdeckt wird müssen erstmal die dafür nötigen Dreiecke stehen, welche wiederum von der Tesselation aufgeblasen werden. Man spart also letztendlich erst nach der Polygonenerzeugung. Es setzen zwar Culling Typen auch bei der Polygonenerzeugung an, die Preisfrage ist aber ob sie eingesetzt werden und wie die Tesselation darauf reagiert denn wie man anhand der Betonklötze sieht kann man auch wenige Polygone auf tausende aufblasen ohne einen ernsthaften Nutzen davon zu haben.
Ergänzung ()

ampre schrieb:
Eine Fury X ist nur 6% hinter einer 980ti und Fury x hatte auch schon so etwas ähnliches wie hbcc integriert.
Soweit ich mich erinnere hat die Fury nichtmal ansatzweise sowas wie HBCC mit drin, da dient der HBM Speicher lediglich als Grafikspeicher und funktioniert damit wie bei anderen Karten auch. Daher auch deren Probleme bei hohen Auflösungen. Ihr geht einfach der Speicher aus und hat deshalb auch die Probleme mit der 980Ti.
Ergänzung ()

@Krautmaster
Wenn man bei der Rasterisierung für kleine Fortschritte mit Kannonen auf Spatzen schiesst dann schmeißt man beim Raytracing Ansatz mit Atombomben danach. Wir reden hier schließlich um etwas wofür man aktuell eine 1300€ Karte mit speziellen Recheneinheiten benötigt um halbwegs in FullHD mit 60 FPS spielen zu können. Bei der Rasterisierung mit einem guten Fake Ansatz könnte man vermitlich was vergleichbares in UHD erreichen.
 
Zuletzt bearbeitet von einem Moderator:
Sicherlich vorbildlich, dass Bethesda CAS noch nachrüsten um diejenigen mit RTX GPU, die noch nicht zu Wolfenstein 2 gegriffen haben, ab zu holen, aber als Kaufargument für die preis-leistungstechnisch mauen RTX Turing Karten sehe ich das nicht.

Da können nVidia und solche wohlwollenden Presse-Artikel die Werbetrommel für Turing rühren wie sie wollen ;).

Deutlich interessanter finde ich die Ankündigung zu einer möglichen Intel dGPU-Vorabdiskussion/Pressekonferenz zum Launch in 2020, die Dezember diesen Jahres stattfinden könnte, auch wenn es laut Koduri kein Intel dPU Event ist.
 
ZeroZerp schrieb:
Genau- Und wenn Du eine Firma hättest, würdest Du natürlich alles open Source machen, die Konkurrenz überall einbinden, keine Schwächen des Konkurrenten ausnutzen und alles für Lau anbieten und die Eigenentwicklungen für die Konkurrenzprodukte optimieren.
Es geht hier um Business! Das ist kein Wohlfahrtsverein!
....
Und nochmal... Die Gameworks- Bibliotheken sind ab Lizenzierung für das Entwicklerstudio schon länger in den Sourcen verfügbar und dürfen auch geändert bzw. optimiert werden.

Die Blackbox war mal...

Man ZeroZerp, du hast da gerade AMD beschrieben
(ausserd das "Eigenentwicklung für die Konkurrenz optimieren" geht ja nicht dann müssten Sie ja noch vorbei gehen.)

Was mich dazu bringt was an Gameworks offen ist.
Denn hier hast es richtig erklärt, source manipulierbar jedoch NICHT offen. -> + für AMD! sorry
Ergänzung ()

ZeroZerp schrieb:
Das stimmt schon. NVidia nennt deren Technikimplementation RTX. Und da es von keinem sonstigen Hersteller diesbezüglich irgendetwas gibt, kann es auch nicht benutzt werden.

DXR ist aber offen. Das bedeutet, dass BFV durch DXR die Spiegelungen auf jeder Hardware darstellen könnte, die diese Schnittstelle bedienen kann.

Ist auch ok wenn DICE sich selbst verkauft hat. Das Spiel sieht so gut aus ob RTX on oder off.

Was mich echt ankotzen würde ist wenn folgende Spiele wie "Atomic Heart" die richtig gut aussehen wegen RT nur einem Monopolisten zugute kommen würden. Das obwohl überall möglich.
 
Der einzige Grund, warum AMD so oft auf OpenSource und andere Industrieteilnehmer setzt, ist dass sie die Ressourcen für eine In-House Entwicklung meist nicht haben.

Und wenn ich mir Huddy's Aktionen und Anschuldigungen so ansehe, sehe ich auch nicht den Heiligenschein, den @Pleasedontkill AMD aufsetzen will.

Nachdem ich neulich selbst geschrieben habe, wie sehr mich die Verwendung von "Mimimi" aufregt, schlucke ich es hier runter. Aber AMD muss schon aufpassen, das Image des ständig benachteiligten und leidenden ist nicht unbedingt gut. Nicht in der heutigen Businesswelt.
 
Bärenmarke schrieb:
Und das stimmt eben nicht, aber da kann ich dir gerne mit einem Auszug des Tests aushelfen:

"Einzig fiel auf, dass Wolfenstein 2 in manchen Levels offenbar die Beleuchtung nach dem Verstellen einer Grafikoption verändert.
In einer Szene gab es dann aber doch einen Unterschied zu sehen – interessanterweise in der dunkelsten. So gehen mit CAS in der Szene Details des Mauerwerks am Haus hinter dem Fahrzeug verloren. Hier verschwinden viele Fugen. Es scheint so, als wäre das Haus mit viel weniger Ziegeln gebaut, als es eigentlich ist. Auch an der Häuserwand des Gebäudes hinten rechts gehen feine Details durch CAS verloren, dasselbe gilt für kleine Details an der Absperrung zentral rechts. Zu guter Letzt verschwinden auch einige Bodendetails direkt vor dem Spieler
"

Liest sich für mich nicht nach Qualität bleibt unverändert, aber gut in deiner Welt ist ja eh immer alles leicht verdreht, kennen wir ja auch aus anderen Threads ;)


Ich hab ihn gelesen, aber du wohl eindeutig nicht. Aber extra für dich habe ich oben die Passage aus dem Text sogar nochmal zitiert ;)
Die Hoffnung stirbt ja bekanntlich zuletzt.

Auch nochmal für dich, das Fazit! ;)

Qualität und Balanced funktionieren sehr gut

Schlussendlich lässt sich sagen, dass Content Adaptive Shading in Wolfenstein 2 je nach Sequenz gar keine optischen Verluste erzeugt und es in anderen Szenen dagegen kleine Einbußen geben kann. Beim Spielen ist der Grafikverlust aber bei „Qualität“ so gering, dass die minimalen Unterschiede nicht auffallen. Und auch „Balanced“ wird in der Spiele-Praxis keinerlei negativen Auswirkungen haben. Einzig die Stufe „Spiel-Performance“ sollte gemieden werden.

Es ist neu und liefert in verschiedenen Szene keine nachweisbaren Verschlechterungen, in anderen schon (ist noch neu) die aber mit der Lupe zu suchen sind.

Danke fürs lesen.

Es ist klar davon auszugehen, das man hier weiter optimieren wird und es ist toll das es gemacht wird. Ich hoffe das AMD das auch demnächst macht!
Wir wollen doch immer höhere Auflösungen und Fps. Also bitte, ich finde derartige Entwicklungen gut.
Ziel ist es mehr Fps, ohne sichtbaren verlust!
Wie gut das funktioniert muss man dann sehen, aber das direkt zu verteufeln, weil es der falsche Hersteller macht ist einfach kurzsichtig.
 
  • Gefällt mir
Reaktionen: .Sentinel.
als wenn eine Karte in der Leistungsklasse auf die bis zu 13% Mehrleistung angewiesen wäre. Für das Kleine an Mehrleistung wird aber tüchtig zur Kasse gebeten.
Und hier wird es emsig beworben irgendwo müssen ja die Gehälter der CB Mitarbeiter finanziert werden.
Auch CB ist nicht neutral - es gilt immer noch die Maxime -wer zahlt der bestimmt die Musik- .
Mir auch egal-solange man sch nicht nur mit den hochpreisigen Produkten beschäftigt.Gerade bei Spiele Tests ist es doch wichtig, wie die neuen billigeren Produkte abschneiden, denn hier geht es ja ans Eingemachte - an die noch Spielbarkeit. MS Sprecher sagten mal bezugnehmend auf die X Box - alles was über 30 FPS liegt ist flüssig spielbar. Hardcore Gamer sehen das natürlich anders, denn sie müssen ja Gründe für den Kauf ihrer teuren Hardware heranführen und da sind nun mal 60 FPS die unterste Grenze der Spielbarkeit. Ich persönlich brauche für meine Rollenspiele keine 60 FPS mir reichen da 35 FPS als unterste Grenze völlig aus, wenn sich das Mittel um die 40-45 FPS einpegelt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
@Siegfriedphirit Ich finde die Unterstellung der Parteilichkeit von CB ziemlich unverschämt.

Offenbar ist nur der "Unparteilich", der genau Deine gefärbte Meinung möglichst klar herausstellt. Wenn jeder so denkt, dann haben wir nur noch Seiten, die jeweils ihre eigene "Farbschattierung" darstellen und die wirklich objektiven, nachvollziehbaren Informationen gehen verloren.
 
  • Gefällt mir
Reaktionen: Dr.Crane, Schnefferaunzn, derneuemann und 2 andere
Genau mit einer RTX 2050/2060 ist diese neue Funktion viel interssanter als mit den momentan erhältliche RTX Karten. Zumindest bezüglich Wolfenstein. Läuft das eigentlich auch nur mit DX 12?
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Wadenbeisser schrieb:
Dann muss man nvidia schon für verdammt inkompetent halten um zu glauben das durch Zufall genau der Arbeitspunkt angestrebt wird bei dem die eigene Architektur in Benchmarks deutlich besser weg kommt.
Ja- Sie waren ja sogar so dämlich einen Arbeitspunkt zu wählen, bei dem die eigene Hardware deutlich in die Knie geht. Aber- Stimmt. Das war alles Kalkül, damit die Kunden dann die neuen deutlich schnelleren Karten kaufen müssen.

Siehe das Äquivalent TressFX und meine Ausführung dazu oben.
Welch Unverschämtheit von einem Hersteller Dinge zu entwickeln, die auf den eigenen Karten besser laufen, als auf denen der Konkurrenz.

Zudem kann der Markt herzlich wenig bestrafen wenn es der Kunde nicht tut denn diesesorgen schließlich für den entsprechenden Warenabsatz. Was von den ganzen Spielchen die nvidia im laufe der letzten 10 Jahre abgezogen hat hat der Kunde und damit der Markt bestraft? So wie ich das sehe hat der Markt es eher belohnt.
Weil das Produkt eben im Paket spitze war. Und nicht jeder kauft bei einem Produkt die gesamte Firmengeschichte und deren Moral mit.

Das ist eben wie bei VW. Egal was der Konzern treibt udn welche Skandale es nach sich zieht, nichts hat ernsthafte Konsequenzen.
Exakt. Und da hier jeder auf Konsum erzogen ist und es keine "sauberen" Alternativen gibt, nimmt man einfach das Produkt, wonach einem die Nase steht.

Des weiteren sehe ich nicht wo der Sinn deiner Argumentation zum Culling im Bezug auf die Tesselation liegen soll denn so wie ich das sehe läuft es doch eher so ab. Bevor das Culling darüber entscheiden kann ob etwas verdeckt wird müssen erstmal die dafür nötigen Dreiecke stehen, welche wiederum von der Tesselation aufgeblasen werden. Man spart also letztendlich erst nach der Polygonenerzeugung. Es setzen zwar Culling Typen auch bei der Polygonenerzeugung an, die Preisfrage ist aber ob sie eingesetzt werden und wie die Tesselation darauf reagiert denn wie man anhand der Betonklötze sieht kann man auch wenige Polygone auf tausende aufblasen ohne einen ernsthaften Nutzen davon zu haben.
Ergänzung ()
https://www.gamedev.net/forums/topi...ustum-culling/?do=findComment&comment=5338483
Der wichtige Teil daraus:
So, basically you always send the full grid and you can frustum test to avoid to do the tesselation pass if the part of the grid is not visible.

---

Wenn man bei der Rasterisierung für kleine Fortschritte mit Kannonen auf Spatzen schiesst dann schmeißt man beim Raytracing Ansatz mit Atombomben danach. Wir reden hier schließlich um etwas wofür man aktuell eine 1300€ Karte mit speziellen Recheneinheiten benötigt um halbwegs in FullHD mit 60 FPS spielen zu können. Bei der Rasterisierung mit einem guten Fake Ansatz könnte man vermitlich was vergleichbares in UHD erreichen.
Die Problematik ist doch, dass die ganzen Fake Ansätze es maximal zu einem "akzeptablen" Bild bringen und bereits daür ein Höllenaufwand produziert wird.
Mich wundert immer, dass die Leute einerseits 4K in 120Hz brauchen, es ihnen aber dann komischer Weise garnicht auffällt, wenn die hälfte ihres Bildes mit niedrig aufgelösten, fehlerhaften und nicht in der Bildwiederholfrequenz des Renderings dargestellten Fakeffekten gepflastert sind und das dann aber gutgeheissen weil ja die Framerate obengehalten wird.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Hier hat Nvidia eine mMn sinnvolle Neuerung geschaffen. Das wird im Test auch so gesehen und deshalb kann man dann auch mal ein Lob dafür aussprechen

Hier im Falle von Wolfenstein mit Sicherheit lobenswert, aber auch noch nicht aussagekräftig. Interessant wird es bei zukünftigen Spielen, die in Kooperation mit Nvidia entwickelt werden und wie es dort dann implementiert wird und v.a. auch wie die Tests dieser Spiele dann durchgeführt und interpretiert werden.
 
  • Gefällt mir
Reaktionen: derneuemann
Zurück
Oben