Test Watch Dogs: Legion im Test: Hohe Anforderungen und etwas viel Raytracing

foo_1337 schrieb:
Könnte man bei der Werbung, die die beiden Hersteller so fahren auch meinen. Dazu ist es bei dieser Generation tatsächlich so, dass plötzlich aus der Konsolenfraktion genau diese Argumente à la VRR etc. kommen.

Mit der PR greifen beide Hersteller lediglich die [auch von dir angesprochenen] Umsteiger an, oder solche die man gerne entweder noch zum Umstieg oder einer Konsole zusätzlich zum PC überreden möchte.

Den klassischen Konsolenspieler interessieren solche Details nicht die Bohne.

Die Spiele sehen auf der Xbox Series X und PS5 besser aus als auf der Xbox One und PS4 und das reicht den meisten. Ansonsten kämen solche Vorverkaufszahlen gar nicht zu Stande, ohne die tatsächlich Leistung der neuen Konsolen überhaupt zu kennen.

Das hier gezeigte Watch Dogs: Legion ist doch das beste [wenn auch wirklich schlecht umgesetzte] Beispiel.

Die Grafik ist nett, aber keine Revolution. Die Xbox schafft auf 4K dennoch nur 30 fps und das was man da so zu sehen bekommt, wirkt auf den ersten Blick wie ein Mix zwischen Mittel und Hoch.

4K@30fps bei einem Mix aus Mittel und Hoch. Also die AAA-Spiele werden einen 4K OLED mit 120 Hz ganz sicher nicht ausreizen.*

*mal ein paar Rennspiele ausgenommen.

Dennoch sieht Watch Dog: Legion auf der XBX nett aus und läuft sehr smooth und gleichmäßig.

foo_1337 schrieb:
Aber die, die vorhanden sind, verkaufen sich wie geschnitten Brot. Und es ist davon auszugehen, dass dem auch so wäre, wenn mehr verfügbar werden.

Wäre auch schlimm wenn die Handvoll Karten nicht weggehen würden. Ein Kollege von mir hat drei Stores in Aachen, Köln und Düsseldorf und bisher rund 500x die 3080 und 200x die 3090 vorbestellt, die Bestellungen datieren von vor dem Release.

Bisher geliefert: ca. 50x 3080, ca. 25x 3090.

Wenn die Grafikkarten massig verfügbar wären, wären sie dennoch kein „Massenphönomen“, denn die Masse kauft keine Grafikkarten für 750 bis 1.500 Euro.

Die FE für 699,- Euro ist ja im Grunde eh nie verfügbar. Das geht auch nicht gegen Nvidia, da Hersteller mir egal sind. Auch eine RX 6900 für 999,- US-Dollar wird kein Massenprodukt.

foo_1337 schrieb:
s.o., bei der PS4 würde ich mitgehen, bei PS5/series X nicht. Das wird alleine schon unter den beiden Konsolenlagern ein Thema sein bzw. ist es jetzt schon. Ähnlich wie auch schon bei PS4 Pro/One X.

Das ist aber nur der einstellige Prozentsatz der Spieler die in Foren diskutieren, einem Großteil der Konsolenspieler ist das schlicht egal.

Ich verdiene mit dem Verkauf von Hardware seit 16 Jahren mein Geld, die Leute die hier im Forum unterwegs sind [wie du und ich] repräsentieren nicht einmal 5% der Spieler. 500, 600, 800, 1000 Euro für eine GPU? Den Anspruch 60 fps bei 4K auf der Konsole zu haben? Never! Das sind 1st World Issues aus den Foren, nicht aber der breiten Masse.

Heute Anruf von Vater und Sohn (17 Jahre): „Mein Sohn will mal richtig was ausgeben, sein ganzes Erspartes. Der PC darf ruhig 900 Euro kosten, auch ohne Monitor!“

Also 3090, 3080, 3070, 6900 XT, 6800 XT und 6800 fallen da schon einmal weg. :D

Vom Alltag im ComputerBase-Forum kann man nicht auf die Allgemeinheit schließen, das hier ist eine große Bubble.

foo_1337 schrieb:
Auch mit vergleichbaren Settings am PC?

Ich habe es auf meinem System mit 3950X, 64 GB DDR4-3600, GeForce RTX 2070 Super OC in allen möglichen Settings gespielt und es fühlt sich nicht smooth an, leider nicht.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: MarcelGX, rasenschach, ufopizza und 8 andere
Hier lassen einige NV Besitzer verständlicherweise ihren Frust raus, aber es kommt sicher nich ein Treiberupdate ... Für AMD Besitzer ist das aber schon nicht schlecht ... Die 5700XT holt hier echt viel raus und auch das DX12 scheinbar mal endlich ordentlich was bringt ist erfreulich, sofern das VRAM Limit nicht erreicht wird. Von schlecht programmiert/optimiert kann man also grundsätzlich nicht sprechen ...
 
Danke für den Test.

@Wolfgang Macht ihr noch "CPU Tests"/ Bottleneck Tests? Dann lasst mal RT aktiv, das geht ordentlich auf die CPU.
 
foo_1337 schrieb:
@GerryB ja komisch, dass die mit der Intel CPU keine VRAM Schwäche der 3070 feststellen konnten.
Die Angabe 7,95GB bei Dir in 4k ist wahrscheinlich schon Swap-Bereich.
PCGH hat in den Video-Reviews auch immer mal Ruckeln festgestellt.
Das waren keine glatten Frametimes mit der 3070.

Hier:
https://www.thefpsreview.com/2020/10/28/watch-dogs-legion-ray-tracing-and-dlss-rtx-30-performance/
Das war in dem Review die Anzeige im Gamemenü.(sprich Angabe von Ubisoft)
Ob nun in allen Gamelocations und dadurch abhängig bei Reviewer XYZ der worst Case eintritt,
ist halt ne andere Geschichte.
Positiv ist erstmal, das net automatisch der Vram vollgekracht wird.
(wie das am Anfang mit DX12-Games so war)

btw.
Wie ist das eigentlich mit AVX? Benutzt der NV-Treiber das im Game?
Könnte evtl. Unterschiede zw. AMD+Intel erklären, wenn das net gleichermaßen gut geht.
 

Anhänge

  • WD_3070@4kRT.jpg
    WD_3070@4kRT.jpg
    404,9 KB · Aufrufe: 283
Zuletzt bearbeitet:
@GerryB unwahrscheinlich. Wenn avx genutzt wird kann dies AMD auch. Mir ist kein Spiel bekannt welches AVX512 benutzt geschweigedenn in einem Rahmen wo sich das tatsächlich im Vergleich Auswirken würde.

Ich denke mal dass es hier einfach von der gewählten Szene und den presets abhängt was am Ende rauskommt. Ich kann leider nicht testen wie die Auslastung der GPU ist da sie sowieso zu alt ist.
 
Zum Thema zu viel RT ist mir noch die folgende Szene aus einem Bully Film (Traumschiff Surprise oder Bullyparade der Film) eingefallen:
Nach 2 Minuten sagt dann der Kaptain: Und macht doch mal den scheiß Lensflareeffekt aus.
Aus
Alle: Aaahhh.
:)
 
  • Gefällt mir
Reaktionen: Celinna, ChrisMK72, LukS und 2 andere
Puh das Spiel zieht ja ordentlich Leistung. @Wolfgang Ich vermisse in dem Test noch den Leistungsvergleich der Detailstufen abseits von RT und DLSS. Ansonsten: danke für den Test Dürfte durch RT und DLSS ja gut arbeit gewesen sein. MFG Piet
 
Und wieder mal wird konsequent verschwiegen das das Spiel Denuvo einsetzt. Warum wird das hier bei keinem Test erwähnt?
 
Ich wurde bis auf paar Ausnahmen nie wirklich warm mit Ubisoft spielen. Die meisten wirken auf mich seelen und charakterlos. Es gab wirklich nur ein paar Ausnahmen die meine Meinung in dieser Form nicht bestätigen. Und wenn ich mir die Reviews zu diesem Spiel anschaue macht es genau den gleichen Eindruck.

Ubisoft Spiele erkennt man imo schon nach paar Minuten spielen ohne das Cover oder Logo gesehen zu haben :-D
 
foo_1337 schrieb:
Aber die, die vorhanden sind, verkaufen sich wie geschnitten Brot. Und es ist davon auszugehen, dass dem auch so wäre, wenn mehr verfügbar werden.

Na ja, die würden sich sicher verkaufen, aber Du vergleichst gerade einen Konsolenvorverkauf in Stückzahlen die in die Millionen gehen mit einer Menge von Grafikkarten die in die Zehntausende (?) gehen! Der Markt für High End Grafikkarten ist doch eher sehr klein auf die Masse an PC Spieler gesehen. Das wollen die Meisten hier aber nicht wahrhaben, da wird immer so getan als wenn jeder Spieler bis spätestens Mitte nächsten Jahres eine 3080 im Rechner hätte und dann kommen so Aussagen wie "dann ist die aktuelle Konsolengeneration schon wieder veraltet". Meiner Meinung nach wird es schon eher eine Series X2 und PS5 Pro geben, bevor es so viele PC Spieler mit einer 2080Ti oder besser im Rechner gibt wie Konsolenspieler mit einer Series X oder PS5 (die ja eine vergleichbare GPU Power hat).

foo_1337 schrieb:
s.o., bei der PS4 würde ich mitgehen, bei PS5/series X nicht. Das wird alleine schon unter den beiden Konsolenlagern ein Thema sein bzw. ist es jetzt schon.

Nein, eigentlich nicht. Das wird denen entweder von den PC Spielern "eingeredet" oder es dient ausschließlich dem schon immer stattfindenden "Schwanzvergleich" der 2 Lager (MS & Sony). Wirklich interessieren tut es doch die Wenigsten. Meine "aktuelle" :D Grafikkarte in meinem PC ist eine GTX680, da glaubst Du nicht wirklich dass ich auf 4k@60 wert lege, oder? ;) Für Strategiespiele, den Rest zocke ich eh an der Xbox, reicht es noch und wenn es mal ruckelt, so what?

Natürlich freue ich mich, wenn es auf der Series X 4k@60 hergibt, aber wenn nicht werde ich nicht weinend in der Ecke sitzen, sondern mich einfach trotzdem am Spiel erfreuen. ;)

Bei einigen PC Spielern mit Highend HW kommt es mir oft so vor, als wenn sie ausschließlich zu streiten und diskutieren anfangen, weil sie die hohen Anschaffungskosten vor sich selber rechtfertigen müssen. Hey, ich kenne das, meine 680 war irgendwann auch mal Highend :D und der komplette Rechner mit SSD's und Wakü hat damals über 2.000€ gekostet. Da wird dann gerne argumentiert:

"Aber auf der Konsole sind nur mittlere Details aktiv, ICH habe alle Regler auf ganz Rechts gezogen! Du hast ja nicht mal Regler! haha"
"Aber den Unterschied sieht man doch fast gar nicht?!"
"DOCH! Schau mal auf diesen Screenshot hier! Wenn man da reinzoomt, siehst Du das Rad da hinten, das ist bei mir viel runder, weil da mehr Polygone verwendet werden. Und der Bart hier vom Witcher, der hat viel mehr Haare als bei Dir auf der Konsole!"
"Wäre mir jetzt gar nicht aufgefallen, ich habe einfach nur gespielt..."

usw. ;)

SV3N schrieb:
Vom Alltag im ComputerBase-Forum kann man nicht auf die Allgemeinheit schließen, das hier ist eine große Bubble.

Danke Sven, wenn so ein Satz mal von jemandem wie Dir kommt, bleibt er vielleicht mal in den Köpfen von einigen hier hängen... ;)
 
  • Gefällt mir
Reaktionen: Schattenspender, SIR_Thomas_TMC, .Sentinel. und eine weitere Person
btw.
Ob der Vram reicht wird man evtl. viel besser an der Ram-Füllung sehen.
(Wieviel dann schon geswappt werden muss)

als Bsp. mal Dirt5, wo die 6GB-Grakas sehr zu rudern haben:
(erstaunlicherweise belegt die 2060 mehr Ram als die 5600 und Das schon in kleinen Auflösungen,
sonst ist ja eigentlich NV immer ein paar 100MB sparsamer)
DIRT 5 тест GPU/CPU | Racing Simulators / Гонки | Тест GPU
(übrigens reichen auch kleine CPU`s)
 

Anhänge

  • Dirt5-Ram.png
    Dirt5-Ram.png
    39 KB · Aufrufe: 297
  • Dirt5@WQHD.png
    Dirt5@WQHD.png
    43,5 KB · Aufrufe: 302
Zuletzt bearbeitet:
GerryB schrieb:
Die Angabe 7,95GB bei Dir in 4k ist wahrscheinlich schon Swap-Bereich.
PCGH hat in den Video-Reviews auch immer mal Ruckeln festgestellt.
Das waren keine glatten Frametimes mit der 3070.

Hier:
https://www.thefpsreview.com/2020/10/28/watch-dogs-legion-ray-tracing-and-dlss-rtx-30-performance/
Beide Tests wurden ohne den Patch vom 30.9. durchgeführt. Schaut euch doch bitte die Videos/Tests an, die den Patch schon implementiert haben. Das ungerechtfertigte Schlechtgerede der 3070 nervt langsam. Mach einfach einen Bogen um die 3070 und gut ist.

@SV3N ich hab meinem Sohn erst nen PC für ca 850€ (Ohne die SSDs) inkl. 3070 gebaut ;)
 
  • Gefällt mir
Reaktionen: PHuV
foo_1337 schrieb:
Beide Tests wurden ohne den Patch vom 30.9. durchgeführt. Schaut euch doch bitte die Videos/Tests an, die den Patch schon implementiert haben. Das ungerechtfertigte Schlechtgerede der 3070 nervt langsam. Mach einfach einen Bogen um die 3070 und gut ist.

Warum sollte man offensichtliches nicht aussprechen?
Mach doch einen Boden um Leute, die das offensichtliche kommunizieren wenn dir die Wahrheit nicht passt.
Sollen jetzt alle nur für dich eine Fantasiewelt erschaffen, weil NVidia es auf voller Länge verkackt?
 
Es ist ein Unterschied, ob etwas in gefühlt jedem Thread über Grafikkarten täglich 20x, immer von den selben Leuten, erwähnt wird, oder in den dafür relevanten Threads wie z.B. in der Kaufbaratung oder in Tests.
 
  • Gefällt mir
Reaktionen: PHuV
Werde auf den Raytracingzug nicht aufspringen.
Klar sieht RT gut aus, aber die Games sehen auch ohne RT gut aus und laufen flüssiger.
Meine GTX1080 werde ich aus Marketinggründen seitens NVIDIA nicht aufs Abstellgleis schieben.

Wenn wir wirklich einen Grafikknaller zum Vergleich heranziehen wollen, dann sollten wir einfach beruhigt auf Cyberpunk warten. Die Macher von WatchDogs legen offensichtlich keinen Wert auf Optimierung und guten Code. Oder sie haben einfach die Ressourcen nicht.
 
Zuletzt bearbeitet:
foo_1337 schrieb:
Beide Tests wurden ohne den Patch vom 30.9. durchgeführt.
Deswegen habe ich ja im ersten Post auch "älterer" Test geschrieben.
Mir Hier unterstellen zu wollen, das ich Irgendwas verschweige ist an den Haaren herbeigezogen.
 
JeverPils schrieb:
Werde auf den Raytracingzug nicht aufspringen.
Klar sieht RT gut aus, aber die Games sehen auch ohne RT gut aus und laufen flüssiger.

Warte einfach mal noch ein paar Monate ab.
Ich denke, dass viele von den demnächst veröffentlichten Spielen RTX als Technologie verwenden werden.

Und da wirst Du dann irgendwann auch nicht mehr herum kommen.
Denn .... es sieht eben wirklich gut aus (auch in WD Legion im Vergleich zu RTX aus)
Es ist für mich das erste Spiel, bei dem ich es einschalten kann, ohne dass mir die Framerate komplett einbricht, da das Spiel zusätzlich eben DLSS anbietet.
Ansonsten ist der Performance Verlust nämlich (bei mir als UHD Benutzer) eben zu riesig.
 
GerryB schrieb:
Mir Hier unterstellen zu wollen, das ich Irgendwas verschweige ist an den Haaren herbeigezogen.
Ich unterstelle dir nicht, dass du irgendetwas verschweigst. Wir haben dieses Thema mit den 8GB VRAM hier im Thread nur schon so oft durchgekaut und ständig kommt wieder jemand damit, ohne sachliche Argumente, lediglich mit irgendwelchen Tests.
Dazu noch einmal: Die 2080ti mit 11GB VRAM performed in diesem Spiel nicht besser, insbesondere nicht in den Frametimes. Daher bleibt festzuhalten, dass die 8GB VRAM hier kein Entscheidendes Problem sind.
Viel spannender sind die von mir angesprochenen, gravierenden Unterschiede zwischen den CB Tests und den anderen Tests. Wo hier die 5700XT hochgelobt wird und von "kaum Unterschieden zur 3070" gesprochen wird, ist in nahezu allen anderen Tests die 3070 mit 20-30fps im Vorspruch. Auch gegen die 2070s sieht die 5700XT in diesen Tests kein Land.
 
foo_1337 schrieb:
Dazu noch einmal: Die 2080ti mit 11GB VRAM performed in diesem Spiel nicht besser, insbesondere nicht in den Frametimes. Daher bleibt festzuhalten, dass die 8GB VRAM hier kein Entscheidendes Problem sind.
Das Turing hier irgendein "Treiberproblem" o.ä. hat und net normal performt ist ja wohl klar.
Würde ich net als Argument anführen.

edit: Das Problem bei Turing scheint auch erst mit Zuschalten von RT aufzutreten:
(zur Klarstellung die Bsp. sind ohne den 30Oct-Patch)
 

Anhänge

  • WD-Ram.png
    WD-Ram.png
    35,3 KB · Aufrufe: 284
  • WD-DLSS.png
    WD-DLSS.png
    35,3 KB · Aufrufe: 288
  • WD-RT-nonDLSS.png
    WD-RT-nonDLSS.png
    34,7 KB · Aufrufe: 290
Zuletzt bearbeitet:
Schade, hab so etwas schon befürchtet als der Ansatz mit den unendlichen vielen Helden angekündigt wurde.
Wieso schneidet man sich nicht endlich eine Scheibe von Rockstar ab und macht mal eine wirklich spannende Geschichte? Gerade das Hacker-Thema bietet doch unendlich viele Möglichkeiten und auch Teil 1+2 haben in einigen Momenten wirklich gute Geschichten erzählt und Fragen aufgeworfen, die Moralvorstellungen der Spieler gereizt usw.
Ich mag die Serie wirklich, gerade gegen Ende haben die anderen Teile ordentlich an Story-Fahrt aufgenommen und ich mochte sie doch. Es tut fast schon weh, so viel ungenutztes Potenzial zu sehen. Dabei kann ich mir nicht vorstellen, dass das niemandem beim Entwickler auffällt, zwangsweise unpolitisch zu sein passt mit Kunst kaum zusammen.
 
Zurück
Oben