News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.001
  • Gefällt mir
Reaktionen: Mcr-King, HardRockDude, Transistor 22 und 2 andere
Das schaut doch schon mal gut aus, AMD kommt :)
Von wegen nur Nvidia kann das :D
 
  • Gefällt mir
Reaktionen: Madmanslegend, Mcr-King, HtOW und 2 andere
Sehr schade, dass wir kaum Titel mit der Engine und Technik sehen werden.
 
  • Gefällt mir
Reaktionen: megaapfel, Lübke82, tic-tac-toe-x-o und 6 andere
Hübsch, aber irgendwas wirkt daran immernoch überaus künstlich.
Trotzdem sehr schön zu sehen, dass sie die Fensterscheiben ein wenig schmutzig / staubig gemacht haben :)
 
Ich vermute mal, CryTek kocht hier ein eigenens Süppchen was Raytracing angeht. Glaube kaum dass man hier DirectX Raytracing implementiert hat. Nett anzusehen, ja, aber ohne Spiele ziemlich irrelevant. Optik selbst war ja noch die das Problem der Cryengine.
 
  • Gefällt mir
Reaktionen: psychotoxic, DoS007, Lübke82 und 4 andere
I:r:O:n:I:C schrieb:
Das schaut doch schon mal gut aus, AMD kommt :)
Von wegen nur Nvidia kann das :D
Das hat niemand gesagt. Gesagt wurde, dass Nvidia Echtzeit Raytracing kann mit
einem dedizierten Chip. Raytracing gibts seit Jahrzehnten und kann prinzipiell auf
jeder Hardware ausgeführt werden. Der Unterschied ist in welcher Geschwindigkeit,
Qualität und Komplexität und wie man es implementiert.

Wenn man sieht wie RT in Spielen aktuell selbst die 2080Ti zum schwitzen bringt,
muss jedem klar sein, dass diese Demo auf der Vega 56 ganz weit weg von dem
sein muss, was Nvidia mit RTX gerade macht. Vielleicht war diese Demo einfach
nicht in Echtzeit gerendert. Mal schaun ob dieser Artikel dazu ein Update erhält.
 
  • Gefällt mir
Reaktionen: megaapfel, BVZTIII, FreedomOfSpeech und 7 andere
I:r:O:n:I:C schrieb:
Das schaut doch schon mal gut aus, AMD kommt :)
Von wegen nur Nvidia kann das :D

Naja, ist eine Lösung die auf DX12 aufbaut und in erster Linie keine Leistung der AMD Karten.
 
Naja... "Mainstream GPUs"... die AMD RX Vega 56 (mit der die Demo gemacht wurde) ist irgendwie die Leistungsklasse der 1070 gtx. Meines Erachtens nach ist das die High End Klasse. Mainstream ist eher gtx 1050, gtx 1060, und RX560. Aber trotzdem gut zu sehen, dass man keine RT Cores braucht.

Edit: jetzt wo AMD gezeigt hat, dass flüssiges Raytracing möglich ist mit herkömmlichen Karten, kommen hoffentlich auch bald Treiber von Nvidia, die Raytracing für Pascal Grafikkarten unterstützt. Sonst würde man sich ja als Nvidia Grafikkartenbesitzer "minderwertiger" vorkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schuetze27 und Pleasedontkill
Oh yes, endlich kann die hier viel kolportierte Rohleistung der AMD-Chips mal zeigen, wozu sie imstande ist. :daumen:

Die Chips von Nvidia ist eben reine Grafikbeschleuniger, während die AMD-Chips in der Regel regelrechte Compute-Monster sind. Das sieht man an den vielen Shadern, bei denen immer gefragt wird, weshalb vergleichbare Karten von Nvidia viel weniger Shader brauchen. Bei Grafikberechnungen kommt es (bzw. kam es) eben bisher auch um das Rasterizing und ähnliches an und nicht nur die reinen Recheneinheiten.
 
  • Gefällt mir
Reaktionen: TechFA, Iscaran, Madmanslegend und 18 andere
@franzerich Dann musst du wohl langsam umdenken :D Laut deiner Definition bietet Nvidia fast ausschließlich High End Hardware an? 2060, 2070, 2080, 2080 Ti? 350-1000€? Die 2060 kann man schon zur Mittelklasse zählen.
 
  • Gefällt mir
Reaktionen: Lübke82, TheBear1517 und Che-Tah
franzerich schrieb:
Naja... "Mainstream GPUs"... die AMD RX Vega 56 (mit der die Demo gemacht wurde) ist irgendwie die Leistungsklasse der 1070 gtx. Meines Erachtens nach ist das die High End Klasse. Mainstream ist eher gtx 1050, gtx 1060, und RX560. Aber trotzdem gut zu sehen, dass man keine RT Cores braucht.

Edit: jetzt aber wo AMD gezeigt hat, dass flüssiges Raytracing möglich ist mit herkömmlichen Karten, kommen hoffentlich auch bald Treiber von Nvidia, die Raytracing für Pascal Grafikakrten unterstützt...
der "mainstream" hat sich, seit RTX und kartenpreisen jenseits der € 1.000,- allerdins tatsächlich verschoben, ob man will oder nicht
 
  • Gefällt mir
Reaktionen: Lübke82
Crytek zeigt wieder mal was alles so technisch möglich ist. Sieht sehr gut aus, leider merkt man, dank der Farben immer noch, dass man dort ein animiertes Video sieht.
 
Das sieht ja schon mal ganz schick aus.
Mal abwarten was da noch so kommt, vorallem was die Specs des Tests angeht.
 
benneque schrieb:
@franzerich Dann musst du wohl langsam umdenken :D Laut deiner Definition bietet Nvidia fast ausschließlich High End Hardware an? 2060, 2070, 2080, 2080 Ti? 350-1000€? Die 2060 kann man schon zur Mittelklasse zählen.

Ja... ist meines Erachtens nach alles High End (auch die RTX 2060).

Warum ich so denke:
  • die RTX 2060 hat quasi die Leistung einer GTX 1080 (und dazu auch noch RT Cores)
  • und preislich: ich erwarte für Mainstream Karten Preise von 150-200€ oder so, aber die RTX 2060 kostet das doppelte.
Das ist für mich kein "Mainstream".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qualla, Miuwa, Iscaran und 12 andere
Lieben Dank @MichaG!
r4yn3 schrieb:
Ich vermute mal, CryTek kocht hier ein eigenens Süppchen was Raytracing angeht. Glaube kaum dass man hier DirectX Raytracing implementiert hat. Nett anzusehen, ja, aber ohne Spiele ziemlich irrelevant. Optik selbst war ja noch die das Problem der Cryengine.
Naja …
Crytek nutzt hierfür Voxel-based Global Illumination (SVOGI) in einer experimentellen Variante. Die Performance scheint entsprechend hoch, daß es für flüssiges Echtzeit-Raytracing ausreicht.

Crytek schreibt im diesbezüglichen Manual, daß etwa auf der Xbox One die entsprechende Berechnung eine Verzögerung der Ausgabe von lediglich 4–5 ms durch die GPU in Anspruch nimmt – und auf einem, so der O-Ton „guten PC (GTX 780)“, seien es nur mehr 2–3 ms (AO+Sun-bounce, keine Punktlichter, Low-spec-Modus). Der schnellste Modus sei demnach AO-Only, welcher auf der Xbox One lediglich 2,5 ms in Anspruch nimmt.

Der entsprechende Artikel auf golem.de ist da fundierter …
„Ein Raytracing-Treiber für AMD-Karten existiert intern und offenbar ist die Leistung einer Radeon RX Vega 56 für 300 Euro hoch genug, um die Techdemo in unbekannter Auflösung und Bildrate darstellen zu können. Raytracing erfordert Direct3D 12 als Grafikschnittstelle, weil Microsofts DXR (DirectX Raytracing) diese nutzt; unter Vulkan existiert zudem eine proprietäre Nvidia-Erweiterung.“
— Marc Sauter, Golem.de · Crytek zeigt Raytracing auf Radeon Vega 56
Lektüre:
CryEngine.com • CRYENGINE V Manual · Lighting Overview –
Voxel-based Global Illumination (SVOGI)


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, Iscaran, Ray Donovan und 23 andere
Ich bin gespannt, ob sie das in ihrem aktuellen Titel Hunt:Showdown implementieren.
 
  • Gefällt mir
Reaktionen: Pleasedontkill, DerKonfigurator, fox40phil und 2 andere
Jetzt wäre natürlich ein Vergleich zwischen der RTX2080 und der Radeon7 in dieser Demo interessant.
 
  • Gefällt mir
Reaktionen: onkel-foehn, fox40phil, -Ps-Y-cO- und eine weitere Person
franzerich schrieb:
Ja... ist meines Erachtens nach alles High End (auch die RTX 2060).

Warum ich so denke:
  • die RTX 2060 hat quasi die Leistung einer GTX 1080 (und dazu auch noch RT Cores)
  • und preislich: ich erwarte für Mainstream Karten Preise von 150-200€ oder so, aber die RTX 2060 kostet das doppelte.
Das ist für mich kein "Mainstream".

Also bei Alternate bekommt man nen Fertig-PC mit 2060 für 1099€, als Selbstbau dann unter 1000€, was unter dem Preis einer 2080 Ti liegt. Das würde ich oin Zeiten von 200-300€ Kopfhörern (Bose irgendwas 35 oder so)
und iPhone XS für 1150€ definitiv als Mainstream betiteln.
 
  • Gefällt mir
Reaktionen: Pjack, Lübke82, FCK-THIS und 3 andere
Na wenn da der gute Jensen mal bloß keinen Tobsuchtsanfall bekommt.
 
  • Gefällt mir
Reaktionen: stevefrogs, so_oder_so, DannyA4 und 7 andere
blubberbirne schrieb:
Naja, ist eine Lösung die auf DX12 aufbaut und in erster Linie keine Leistung der AMD Karten.
Finde den Fehler!

Vielleicht nicht dieser Ansatz von Crytek direkt, ja …
Allerdings ist das hier zugrundeliegende DirectX 12 nicht nur indirekt sondern unmittelbar das Resultat entsprechender Vorarbeit seitens AMDs – und damit sehr wohl das Resultat entsprechender AMD-Karten.

Von Kernschmelzen …
Es dürfte glaube ich kein wirklicher Zweifel daran bestehen, daß es DirectX 12 ohne den Vorstoß AMDs mit Mantle seinerzeit nie oder zumindest so nie gegeben hätte. Microsoft hat DirectX 12 ja nicht ohne Grund in Windeseile aus dem Ärmel geschüttelt (und dabei nur allzu oft technologisch den Guttenberg gemimt; DirectX 12 und Vulkan aka Mantle sind ja nicht zufällig zu großen Teilen vollkommen identisch) – sondern es galt zuvorderst als Microsoft'scher DirectX-Konter zu Vulkan.

… und Eruptionen
Da ja Vulkan de facto Mantle entspricht – nachdem AMD ja nach eher erfolgloser Anteilname und Akzeptanz von Mantle in der Industrie und bei den Entwicklern die Blaupasen desselben Kosten-, Gemein- wie auch Lizenzfrei an die Khronos Group veräußert hat – was die Khronos Group ja als Nachfolger von OpenGL etablierte, sind all das, also Vulkan wie auch DirectX 12 und zu Teilen auch die DirectX'sche Raytraycing-Erweiterung DXR die mittelbaren bis unmittelbaren Früchte der Arbeit AMDs und DICE‘.

Da darf und sollte man dann selbst als Botaniker™ wie auch Mitglied der Blue Man Group-Fraktion einmal anerkennend nicken – auch wenn man sich dabei auf die kapitalen Lippen beißen muß …


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: TechFA, Rambo5018, Geckoo und 63 andere
Zurück
Oben