News Nvidia GeForce RTX: Neun weitere Spiele erhalten DLSS-Kantenglättung

Ja... Super.
Noch mehr von diesem proprietären Dreck.
Ich hatte die letzten 20 Jahre, seit ich mir die PC selber zusammenschraube,
abgesehen von einer Radeon X1600 und einer Rage 128 nur grüne Karten.
Was diese Firma aber in den letzten Jahren abgezogen hat reicht mir jetzt.
Als mir Ende 2017 die GTX770 eingegangen ist, hab ich mir erst mal eine gebrauchte 380x geholt.
Dazu kommt demnächst ein Freesync Monitor, und nächstes Jahr eine Navi.
Die Lederjacke kann mich mittlerweile sowas von kreuzweise...
 
ZeroZerp schrieb:
Die Tensor- Cores sind zu erstaunlichen Dingen fähig
Wir warten auf das NGX SDK ....

NVIDIA NGX Technology - AI for Visual Applications

Kleiner Ausblick .... neben Deep Learning Super Sample (DLSS)
AI InPainting
AI Slow-Mo

NGX software: The RTX feature is integrated into any game, application or plugin through the use of the NGX SDK. This is the main code for the AI-accelerated functionality, but it also requires a trained neural network in order to function. NGX has been designed to be thin - a header file that points to a DLL in the NVIDIA driver, making it simple to augment any application with these RTX features.The NGX SDK provides access to a number of RTX technologies and features for games and digital content creation and editing applications.The capabilities of NGX are tightly coupled to the NVIDIA driver and hardware and make use of Tensor Cores found in RTX-capable GPUs.
NGX features: The trained deep neural networks (DNNs) are included in the driver download. These neural networks are updatable as they get more accurate and powerful allowing the performance and capabilities of these features to evolve over time.
 
Zuletzt bearbeitet:
@CastorTransport
Ich kauf mir Grafikkarten erst immer (seit 5 Jahren) wenn eine neue Generation ansteht und dann die alte ;) Da diese Generation noch nicht mal draußen ist draußen ist interessieren mich die jetzigen Preise wirklich überhaupt nicht.
Seit letztem Monat habe ich eine 1070TI Strix, die ich für 320€ ergattert habe, weil ich zu dem auch lieber gebraucht kaufe. Man kommt einfach günstiger weg und so lange wird es auch nicht dauern bis zum 7nm Shrink. Man wird sehen, wenn man es nicht eilig hat klappt das sehr gut :p
 
gustlegga schrieb:
Ja... Super.
Noch mehr von diesem proprietären Dreck.
Ich hatte die letzten 20 Jahre, seit ich mir die PC selber zusammenschraube,
abgesehen von einer Radeon X1600 und einer Rage 128 nur grüne Karten.
Was diese Firma aber in den letzten Jahren abgezogen hat reicht mir jetzt.
Als mir Ende 2017 die GTX770 eingegangen ist, hab ich mir erst mal eine gebrauchte 380x geholt.
Dazu kommt demnächst ein Freesync Monitor, und nächstes Jahr eine Navi.
Die Lederjacke kann mich mittlerweile sowas von kreuzweise...

Du wirst dich viel besser fühlen, wenn ich dir sage, das mir eine GTX 1080ti für 900 Euro schon durchgebrannt ist, weil der Hersteller nur 1 Euro gespart hat, ich habe mir eine neue gekauft, weil ich schon 4K TV, Monitor habe.

Warten wir noch bisschen dann bekommen wir Youtube Videos, ich traue keine Webseiten mehr.
 
gustlegga schrieb:
Ja... Super.
Noch mehr von diesem proprietären Dreck.
Ich hatte die letzten 20 Jahre, seit ich mir die PC selber zusammenschraube,
abgesehen von einer Radeon X1600 und einer Rage 128 nur grüne Karten.
Was diese Firma aber in den letzten Jahren abgezogen hat reicht mir jetzt.
Als mir Ende 2017 die GTX770 eingegangen ist, hab ich mir erst mal eine gebrauchte 380x geholt.
Dazu kommt demnächst ein Freesync Monitor, und nächstes Jahr eine Navi.
Die Lederjacke kann mich mittlerweile sowas von kreuzweise...

Mimimi, ich kann die Features nicht nutzen weil ich keine Nvidia mehr habe...

Alle die über Nvidia exklusive features meckern müssten das auch über AMD exklusive, Playstation exklusive und xBox exklusive machen. Denn das ist genau das gleiche.
nVidia ist AMD vorraus, akzeptiert das endlich, das Geheule nervt sowas von. Entweder über alles was exklusiv oder proprietär ist heulen oder es sein lassen.

Ich hatte immer rote Karten vor meiner 1070 aber weil AMD es nicht geschafft hat zu dem Zeitpunkt ordentliche Leistung zu bringen hatten sie eben Pech. Und wenn sie es weiterhin nicht so richtig schaffen werden sie auch weiterhin Pech haben. Und das sehe ganz sicher nicht nur ich so. Da ist es auch egal was mal war... Denn das war mal. Solange die Leistung stimmt und der Preis (Ich hab gekauft als die Karten noch normale Preise hatten) ist es mir egal ob Rot oder Grün. AMD war auch nicht immer sauber, das dürfte man dann also auch nicht kaufen. Wenn man so argumentiert dürfte man so oder so keine PC Hardware mehr kaufen und auch vieles anderes nicht.

@nebulus geh doch einfach offline, dann siehst du keine News mehr über nVidia. Oder klicke sie einfach nicht an, dann musst du es nicht lesen, wenn du es nicht mehr sehen kannst. :heul:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -Spectre-, Toprallog und Affe007
Illunia schrieb:
Oder Nvidias Hairworks... Oder PhysX...

Warum so viele immer noch denken PhysX sieht man kaum noch wo.

“Nobody uses PhysX”: wrong.

PhysX is the default physics engine in both Unity and Unreal. Which means it is used in tons of games, on a lot of different platforms (PC, Xbox, PS4, Switch, mobile phones, you name it).

“PhysX” is not just the GPU effects you once saw in Borderlands. It has also always been a regular CPU-based physics engine (similar to Bullet or Havok).

When your character does not fall through the ground in Fortnite, it’s PhysX. When you shoot a bullet in PayDay 2, it’s PhysX. Ragdolls? Vehicles? AI? PhysX does all that in a lot of games. It is used everywhere and it is not going away.
http://www.codercorner.com/blog/?p=2013
 
lalelu schrieb:
Welcher Hersteller ?
Und noch ein Garantiefall, oder ?

Ist eine Zotac 1080ti Extreme Core Edition gewesen, ich habe 900 Euro zurück bekommen,
wegen Mining hat die Grafikkarte 1000 Euro gekostet.

Zotac ist aber noch kulant und hat meine alte GTX 970 ersetzt.
 
  • Gefällt mir
Reaktionen: lalelu
TheDarkness schrieb:
DLSS wird doch über Nvidias Server berechnet.
Nur weil es einfacher ist heißt es nicht, dass es mehr Verbreitung findet.
Letztendlich bläht jedes DLSS Spiel den Nvidia Treiber noch weiter auf und kostet sicherlich einiges das auf Ihren Servern zu berechnen (Sonst würde Nvidia einfach hingehen und es eben kurz für die ganze Steam Bibliothek laufen lassen und treiberseitig implementieren)
Wichtungswerte für NN sind sicherlich nicht gerade groß. Ein paar Kilobyte pro Spiel machen den Treiber auch nicht so viel größer.
Und zahlen müssen die Entwickler nichts dafür. Jeder darf sein Spiel kostenlos bei nVidia trainieren lassen oder es natürlich auch selbst trainieren. Interview

Und was verstehst du unter "mal eben kurz laufen lassen" Wer läuft denn da mal eben kurz alle Szenarien im Spiel mal eben kurz durch und trainiert das Netz? Das muss ja schließlich irgendwie individuell automatisiert werden.
 
noxon schrieb:
Und was verstehst du unter "mal eben kurz laufen lassen"
Da versteht wohl jeder etwas anders.
Aus der Perspektive von Nvidia, mag das stimmen.
Ein bis zwei Stunden auf dem hauseigenen Saturn 5 Supercomputer.
Nur ist so ein System mit 660 Nodes, 5280 V100 GPU's und 660 petaFLOPS AI Leistung derzeit noch einzigartig.
 
Hardware_Hoshi schrieb:
Wie ironisch!
Das sind bisher mehr Spiele vor Release mit DLSS-/Raytracing-Unterstützung angekündigt als AMD mit Fiji/Vega im gesamten Produktzyklus hatten. Verbreitet sich anscheinend rasend schnelle!

Kein einziges Spiel dabei was ich zur Zeit zocke. Also was verbreitet sich da rasend schnell ? Ich schätze mal nvidia muss geld in die Hand nehmen, damit solche Features greifen.
 
eLdroZe schrieb:
Mimimi, ich kann die Features nicht nutzen weil ich keine Nvidia mehr habe...

Alle die über Nvidia exklusive features meckern müssten das auch über AMD exklusive, Playstation exklusive und xBox exklusive machen. Denn das ist genau das gleiche.
nVidia ist AMD vorraus, akzeptiert das endlich, das Geheule nervt sowas von. Entweder über alles was exklusiv oder proprietär ist heulen oder es sein lassen.

Ich hatte immer rote Karten vor meiner 1070 aber weil AMD es nicht geschafft hat zu dem Zeitpunkt ordentliche Leistung zu bringen hatten sie eben Pech. Und wenn sie es weiterhin nicht so richtig schaffen werden sie auch weiterhin Pech haben. Und das sehe ganz sicher nicht nur ich so. Da ist es auch egal was mal war... Denn das war mal. Solange die Leistung stimmt und der Preis (Ich hab gekauft als die Karten noch normale Preise hatten) ist es mir egal ob Rot oder Grün. AMD war auch nicht immer sauber, das dürfte man dann also auch nicht kaufen. Wenn man so argumentiert dürfte man so oder so keine PC Hardware mehr kaufen und auch vieles anderes nicht.

@nebulus geh doch einfach offline, dann siehst du keine News mehr über nVidia. Oder klicke sie einfach nicht an, dann musst du es nicht lesen, wenn du es nicht mehr sehen kannst. :heul:

Ich brauche nicht die schnellste Karte ich hätte auch kein Problem eine Grafikkarte von einer anderen Firma als AMD zu kaufen .... ich habe aber ein Problem Nvidia Geld zu geben. Deren Geschäftsgebaren kann ich einfach nicht ab. Siehe GPP, Gameworks, GPU-PhysX, "4GB" 970. Ich bin super zufrieden mit meiner Strix Vega 64. Ich brauche keine 1080Ti oder eine der neuen RTX-Karten.

"AMD war auch nicht immer sauber" ... Beispiele?

Aber AMD ist zumindest heute weit besser ... Software wie TressFX ist OpenSource und Nvidia kann darauf optimieren. Nicht wie bei Nvidia wo mit Gameworks versucht wird nicht nur AMD klein zu halten weil z.B. Spieleentwicklern verboten wird den SourceCode mit AMD zu teilen damit AMD optimieren kann, nein sie machen so Blödsinn wie 64fache Tesselation auf Hairworks zu legen obwohl es zu 16fachem keinen optischen Unterschied gibt oder Objekte unter Wasser mit Tesselation zupflastern die man nicht mal sieht nur damit Maxwell welches gut Tesselation konnte zur Vorgängergeneration so viel besser in diesen Titeln dar steht. Oder schau dir Mantle an mit dem AMD wirklich was bewegt hat (siehe Vulkan oder DX12).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
Moriendor schrieb:
Ich denke eher, dass Du über völlig antiquierte Vorstellungen verfügst. Die Zeiten, in denen Entwickler sich in der Garage eingeschlossen, nicht geduscht und für Jahre jeglichen Kontakt mit Sonnenlicht, Außenwelt und Mitmenschen gemieden haben, sind lange vorbei.

In der modernen Softwareentwicklung ist Teamfähigkeit gefragt. Die soft skills sind extrem wichtig. Die Komplexität und die Anforderungen machen es absolut notwendig, dass man sich neben Middleware auch Know-How (consulting) und onsite hands-on development support einkauft.

Nochmals: Schau Dir einfach die Credits eines x-beliebigen AAA Titels an. Unzählige Firmen tragen zum Gesamtergebnis per Middleware oder "additional engineering" bei.
AMD und nVidia spielen natürlich eine gewichtige Rolle. Die Spieleentwickler sind darauf angewiesen, dass ihr Spiel mit aktueller Hardware und Software (Treiber usw.) der Grafikkartenhersteller harmoniert.

Das können die Spieleentwickler gar nicht selbst leisten. Die brauchen die software engineers von AMD und nVidia vor Ort in der täglichen Arbeit, um das auf die Kette zu bekommen. Oder warum sonst nehmen die diesen Support wohl gerne in Anspruch? Es gibt ja keine Pflicht dazu, aber die großen Entwickler, die es sich leisten können (AAA-Budget) machen es quasi alle.

Was Prey angeht, hatte ich mich übrigens falsch erinnert. Es waren nicht sieben Entwickler von AMD, sondern nur zwei, aber dafür acht von nVidia (siehe hier).
Das fällt unter "additional engineering". Man beachte übrigens wie viele Firmen hier per "additional engineering" beteiligt waren. Bei den ganzen Einträgen in den Credits könnte man fast meinen, das Projekt wäre mehr von Externen als von Arkane selbst gestemmt worden ;) .



Wer redet(e) vom "ganzen Projekt"? Ich sicherlich nicht. Ich habe auch ausdrücklich vor allem von der Schnittstelle von AMD und nVidia Entwicklern zur heimischen Treiberabteilung gesprochen.
In den letzten Monaten sind -falls vom Entwickler erwünscht- von beiden Herstellern normal AMD und nVidia Entwickler vor Ort, die da mit Rat und Tat zur Seite stehen.

Darüber hinaus kann es natürlich noch intensiveren Support geben, z.B. für GameWorks usw.
Das unterliegt vertraglichen Absprachen. Die Entwickler würden solchen Support sicher nicht "buchen" bzw. in Anspruch nehmen, wenn das ein ach-so großer Störfaktor wäre.

Es ist definitiv auch kein Störfaktor, sondern Arbeitserleichterung. Während sich der z.B. nVidia Ingenieur damit rumschlägt, einen speziellen Shadereffekt auf Pascal mit aktuellen Treibern lauffähig zu bekommen, kann der Spieleentwickler sich um andere Baustellen kümmern.

Du glaubst doch nicht ernsthaft, dass das so funktioniert wie von Dir beschrieben, dass der Spieleentwickler einfach die GameWorks Library nimmt und in sein Projekt "einstöpselt".
Das ist eine reichlich weltfremde Vorstellung. Ohne Anpassungen und Extraarbeit wird man GameWorks niemals einfach so integrieren können.

Das wird in der Regel mit keiner Middleware funktionieren. Die Middleware als Tool kann Arbeit erleichtern, Arbeitsaufwand verringern, aber einfach so... *plop*... läuft, wird so gut wie nie funktionieren. Ein gewisser Aufwand für Integration in eigene Prozesse und Entwicklungen wird immer vonnöten sein.

Und woher willst Du wissen, ob AMD (ca. 9000 Angestellte) oder nVidia (immerhin knapp 12000 Angestellte!) nicht genug Leute haben? Bitte mit Quellenangabe. Nochmals: Man muss nur die Credits moderner AAA Games anschauen und dann springen einem die Namen der von AMD und nVidia abgestellten Entwickler ins Gesicht.

Bei nVidia hält sich übrigens das Software- zu Hardware-Engineer Verhältnis mit ca. 50% zu 50% die Waage (hier auf Seite 58). Die haben also tausende von Software-Entwicklern (viele natürlich auch in den Nicht-Gaming-Bereichen). Der Gaming-Support, inklusive onsite support, wird hier auf der nVidia Seite auch näher beschrieben...

Weißt du was, du wasst' es und ich hab mei Ruh', was meine antiquierte Vorstellung angeht, ja die hat man wohl als 24 Jähriger Software-Entwickler der gerade in nem Startup angestellt ist.

Aber meine Vorstellung von Softwareentwicklung ist denk ich so veraltet weil das schon so lange her ist das ich an Software gearbeitet hab. Hah ja, kommt mir vor als wäre es erst gestern gewesen. So ab 8:00-15:00.

Ist ja nicht so als würde ich in nem modernen Unternehmen Arbeiten... Aber du weißt es natürlich genau...^^

Was Gameworks angeht, so funktionieren libs nunmal (deshalb benutzt man die Dinger.), und nachdem Entwicklerstudios Gameworks als Blackbox bekommen dürfen die den Code natürlich auch verändern (So wie jede Lib weil das die Wahrung ser Copyrights viel leichter macht). Lizenzen sind bekanntlich nur Deko.

Mit den Treibern interagiert ein Spielentwickler übrigens schonmal überhaupt nicht. Für sowas wurde DirectX erfunden... Und OpenGL und Vulkan und Mantle... Und Gameworks und AMDs GPUOpen.

Zu deinem zitierten Absatz. "Wir Arbeiten mit Entwicklern zusammen um deren Code zu optimieren" heißt unterm strich: Wir geben Tipps wie die scheiße bei uns schneller läuft und optimieren ggf. noch ein paar Shader mit euch. Das heißt nicht, das sich da wer hinsetzen und das Render-Backend überarbeiten darf.

AMD sucht übrigens Entwickler (bze. Hat gesucht) weil ihr Publisher Support Team die Menge nicht stemmen kann.http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Ryzen-Optimierungen-Entwickler-1251005/

So viel dazu.

Zu Änderungen in Gameworks, das ganze "Gameworks ist scheiße" in dem Artikel mal außenvor: https://www.extremetech.com/gaming/...surps-power-from-developers-end-users-and-amd

Gameworks ist nunmal ne Blackbox. Ja Nvidia hat das mit älteren Effekten etwas aufgelockert (z.B. hbao+ und HairWorks) aber die neueren Effekte sind nunmal Blackboxes. Entwickler dürfen bis weilen Source-Code sehen, das heißt aber noch lange nicht, dass sie ihn auch ändern dürfen. An Gameworks rumzubasteln ist abgesehen eh ne scheiß Idee nachdem Gameworks halt eine ausgiebig getestete Library ist und QA in Games sowieso zu kurz kommt, also warum dann noch mehr Bugs riskieren? Das wäre super High Risk-Low-Reward.

so, das wars dann dazu.

Was den Einkauf von Know-How angeht. Entwickler werden geschult. Externe dauerhaft einzubeziehen ist fürn Arsch weil du am Ende des Tages deine Entwickler auf dem Stand haben willst. Du willst nicht für jedes Projekt abhängig sein. Wie gesagt. Externer Code wird in der Software-Industrie vermieden. Das ist Code der schwer zu Warten ist und zusätzlich auch noch getestet werden muss. Deshalb nutzt man Dinge wie Vulkan-EZ. Das sind getestete Libs die das Coden einfacher machen.

Alles was ein Externer macht muss erst CodeQA Erfolgenm dann muss der Code die Unittests durchlaufen, dann Integrations-Tests und dann Abnahmetests. Damit ist ein Team mit einem Code-Review-Meeting ,der Entwickler oder ein Entwickler mit den Unit-Tests schreiben beschäftigt, ein Tester mit den Integrations-Tests und später mit den Abnahme-Tests. Auf der anderen Seite wenn man vorgefertigte Sachen (wie die Gameworks-Effekte) hernimmt dann kommen eigentlich nur die Integrations-Tests weil Gameworks getestet ist.

Und glaub mir, gerade in so großen Projekten wie Spielen willst du ne passende Code-Basis. Ich mein Ubisoft baut an ner fuckin' Bugsuche-AI weil sie der Fehler nicht mehr Herr werden. Und da willst du dann auchnoch Externe rein bringen die weder Eingearbeitet sind noch zum "eingespielten Team" gehören? Klingt sehr clever.

In meiner letzten Firma hatten wir auch immer schön Externe da. War super spaßig. Irgendwann hat's das Management gelernt und als sie dann auf SAP umstellen wollten haben sie lieber die eigenen Entwickler schulen lassen. Davor hieß es sehr oft. "Wo ist die Dokumentation zu XYZ? - Gib's keine. - Wer hat das Entwickelt? - Ist schon lange wieder weg, arbeite dich halt rein.". Und so gingen dann Wochen drauf. Arbeitsbeschaffungsmaßnahme.

Wie gesagt, Externe sind gut um Tipps zu geben und Vorschläge zu machen. In der Regel ist es eher nicht so toll wenn die am Projekt direkt entwickeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker und Draco Nobilis
IronAngel schrieb:
Kein einziges Spiel dabei was ich zur Zeit zocke. Also was verbreitet sich da rasend schnell ? Ich schätze mal nvidia muss geld in die Hand nehmen, damit solche Features greifen.

Ehm, wann war das jemals anders? Selbst AMD musste Geld für Mantle in die Hand nehmen. Damals hatte man für die Radeons extra EA/DICE für damals Battlefield 4 und Stardock für Ashes of the Singularity "bestochen". Darüber wurde ganz groß TAM TAM von dem AMD Marketing gemacht. Durchgesetzt hat sich die TEchnik trotzdem nicht. Vega krankt heute noch an mangelhafter Unterstützung seiner Features.

Ob du diese Spiele spielst oder nicht, macht keinen Unterschied. Alleine bei der Vielfalt der vertretenen Genres sollte für jeden Gamer etwas dabei sein. Für mich sind es Darksiders III und Mechwarrior 5 - zwei der Klassiker.


ActionNews schrieb:
Ich brauche nicht die schnellste Karte ich hätte auch kein Problem eine Grafikkarte von einer anderen Firma als AMD zu kaufen .... ich habe aber ein Problem Nvidia Geld zu geben. Deren Geschäftsgebaren kann ich einfach nicht ab. Siehe GPP, Gameworks, GPU-PhysX, "4GB" 970. Ich bin super zufrieden mit meiner Strix Vega 64. Ich brauche keine 1080Ti oder eine der neuen RTX-Karten.

Also bist du schlicht einer dieser ideologisch verblendeten Personen?

Beim Thema Geschäftsgebaren dürfte man heutzutage bei keinem der großen IT-Konzerne mehr kaufen. Die von dir genannten Punkte sind die üblichen AMD-Fanboy / Nvidia-Hasser Stichworte. Vega hat bis heute Probleme. Das AMD den Kunden ebenfalls mehrmals geradezu ins Gesicht gelogen hat, scheint dich nicht zu interessieren. Ich hingegen lasse mich nicht mit "overcockers dream" und "Poor Volta" verarschen. Besonder bei Vega wurden viel zu viele Versprechungen gemacht, die letztendlich nie eingetreten sind.

Mir fällt außerdem auf wie sehr sich viele der Vega-Besitzer selbst belügen.

ActionNews schrieb:
Aber AMD ist zumindest heute weit besser ... Software wie TressFX ist OpenSource und Nvidia kann darauf optimieren.

Nein, AMD nimmt keine oder nicht genug Ressourcen in die Hand um Entwickler zu unterstützen. Sie bringen halbgare Features und knallen sie den Programmierern vor die Nase. Das Motto: "Hier habt ihr etwas, helft euch selbst!"

Dir ist doch hoffentlich klar, dass all diese Features bei AMD quasi immer ein "Do it yourself" Baukasten sind. Wenn man die Arbeit schon selbst machen muss, kann man gleich ganz darauf verzichten. Bei DLSS erhalten die Entwickler immerhin eine Gegenleistung in Form von (angeblich) besserer Bildqualität und dazu höheren FPS. Das ist 100x besser als einem Feature hinterher zu hecheln, das eh kaum einer benutzen wird.

ActionNews schrieb:
Nicht wie bei Nvidia wo mit Gameworks versucht wird nicht nur AMD klein zu halten weil z.B. Spieleentwicklern verboten wird den SourceCode mit AMD zu teilen damit AMD optimieren kann, nein sie machen so Blödsinn wie 64fache Tesselation auf Hairworks zu legen obwohl es zu 16fachem keinen optischen Unterschied gibt oder Objekte unter Wasser mit Tesselation zupflastern die man nicht mal sieht nur damit Maxwell welches gut Tesselation konnte zur Vorgängergeneration so viel besser in diesen Titeln dar steht. Oder schau dir Mantle an mit dem AMD wirklich was bewegt hat (siehe Vulkan oder DX12).

AMD hat kein Recht am benutzen von Programmcode der Konkurrenz. PUNKT!

Microsoft und Apple geben ja auch nicht der Konkurrenz ihren Source Code für Windows und MacOS. Die Geschichte mit 64-facher Tesselationsstufe ging auf die Kappe mancher Entwickler, die einfach die Balken in den Entwicklungstools ganz nach rechts gedreht hatten. Bei jedem neuen Feature braucht es Zeit, bis die Designer gelernt haben alles mit Maß zu regeln. Es lag aber auch daran, wie wenig sich AMD für Tesselation interessiert hat und dann ins Hintertreffen geraten ist. Geschichte wiederholt sich bekanntlich!

Mantle war ein übrigens totaler Flop. AMD war damit genau so proprietär wie du es gerade bemängelst. Deshalb hat es keiner Unterstützt und AMD musse es an die Khronoss Gruppe abgeben, damit es irgendwie verwurstet wird.

Das messen mit zweierlei Maßstäbe ist bei deinem Post mehr als sichtbar. Vielleicht überdenkst du das gesagte ein wenig.
 
Hardware_Hoshi schrieb:
AMD hat kein Recht am benutzen von Programmcode der Konkurrenz. PUNKT!

Microsoft und Apple geben ja auch nicht der Konkurrenz ihren Source Code für Windows und MacOS. Die Geschichte mit 64-facher Tesselationsstufe ging auf die Kappe mancher Entwickler, die einfach die Balken in den Entwicklungstools ganz nach rechts gedreht hatten. Bei jedem neuen Feature braucht es Zeit, bis die Designer gelernt haben alles mit Maß zu regeln. Es lag aber auch daran, wie wenig sich AMD für Tesselation interessiert hat und dann ins Hintertreffen geraten ist. Geschichte wiederholt sich bekanntlich!

Mantle war ein übrigens totaler Flop. AMD war damit genau so proprietär wie du es gerade bemängelst. Deshalb hat es keiner Unterstützt und AMD musse es an die Khronoss Gruppe abgeben, damit es irgendwie verwurstet wird.

Das messen mit zweierlei Maßstäbe ist bei deinem Post mehr als sichtbar. Vielleicht überdenkst du das gesagte ein wenig.

Jo, aber es würde der Gaming-Welt besser tun. Aus den Open-Source-Features kamen echt tolle Sachen für die Allgemeinheit raus. Mantle hat sich gut rentiert nachdem es jetzt ja Vulkan gibt. Und DirectX 12. Was beides eigentlich ne feine Sache ist und AMD auch entgegen kommt. Haben halt alle was von.

Gameworks läuft jetzt auf kleineren Nvidia-Karten nicht so super geil und auf AMD-Karten gleich 3x nicht. Ich seh wenig Grund zur Freude wenn man Gameworks-Effekte in nem Game liest. Vergleich mal TressFX mit Hairworks. Schaut besser aus und läuft überall gut. Ist doch eigentlich wünschenswert. Wenn jeder Entwickler seine scheiße nur für sich behält schadet das dem vorankommen in der Grafikindustrie.
Nehmen wir AMDs RadeonRays und das darauf basierende Echtzeit-Baking was Unity gebaut hat. Das Baking zusammen mit DXR könnte halt Raytracing mit guten FPS ermöglichen weil du Ambient-Light mit Lightmaps in großer Zahl machen kannst und DXR für das dynamische Licht. Hätte sich AMD jetzt wie Nvidia hingestellt und gesagt "NVIDIA hat kein Recht am benutzen von Programmcode der Konkurrenz. PUNKT!" dann wäre das für die Mehrheit halt eher schlecht. Ich weiß nicht warum du sowas befürwortest. Ja, Nvidia hat das recht dazu, schade ist es trotzdem.

Ob das mit der 64-Fachen Tesselation auf die Kappe eines Entwicklers ging weißt du nicht. Das einfach auf der ganzen Map durchgehend 64-Fach Tesselation gerechnet wurde ist schon verdächtig. Also wenn das ein Bug war dann muss der Entwickler wirklich sau dumm gewesen sein. Sowas übersieht man nicht. Abgesehen davon muss jemand den soliden Block in Crysis 2 da ja mal irgendwann hingebaut haben.

Kann sein das Nvidia nichts damit zu tun hatte, aber Nvidias Geschäftspraktiken der Vergangenheit zeigen, dass es nicht ausgeschlossen ist, dass das Absicht war. Wie z.B. damals die Deaktivierung von PhysX-Unterstüzung sobald eine AMD Karte auch nur mit im System ist.

Wenn Nvidia eine weiße Weste hätte wären die Leute halt eher bereit ihnen das Abzukaufen.

Heißt übrigens auch nicht, dass AMD nie scheiße baut. Hatten wir auch schon, fanden wir auch nicht geil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, Thraker und ActionNews
StefVR schrieb:
Hätte mr lederjacke dlss mehr ins Zentrum der Präsi auf der Gamescom gepackt...
Er musste erstmal den Namen RTX erklären. RTX-was? Ach so, Raytracing.
Alles weitere hätte die Zuschauer überfordern können. Ähh, was heißt nochmal DLSS? ;)
 
Zuletzt bearbeitet:
Phear schrieb:
Sorry, aber da muss man echt unterm Stein, hinterm Mond oder alternativ 0,0 mit Spielen zu tun haben, um so eine Aussage zu tätigen ;)
Falls letztes zutrifft war der Kommentar allerdings sowieso unnötig.

@Topic
Eins davon kann man abziehen. Fear the Wolves war nie wirklich lebendig. :king:

Tatsächlich zocke ich relativ viel und gerne. Allerdings fast ausschließlich Online-MP und ich lese auch diverse News-Seiten zum Thema. Aber da ist scheinbar wirklich jedes einzelne Spiel an mir vorbeigegangen... :D
 
Darf man zum Schluss kommen, dass DLSS nicht zum Performancevergleich hinzugezogen werden kann, da ja prinzipiell die Nvidia Hardware nur mit einer serverseitigen Unterstützung zu ihrer Leistung kommt? Anders gesagt, ein Teil wird durch das neuronale Netzwerk berechnet und von den Tensor Cores auf das jeweilige Spiel angewendet. Somit kann nicht mehr behauptet werden, die GPU alleine würde die Berechnung der Grafik auf sich nehmen. Also ist sie auch nicht mit einer GPU vergleichbar, die das muss/kann.

Einige Fragen bleiben allerdings. Und die kann bestimmt jemand beantworten: Muss das neuronale Netzwerk dauernd mit Daten des jeweiligen Spiels geupdatet werden? Was ist wenn Spiele Updates kommen oder Erweiterungen? Muss man dann darauf warten ein Update von Nvidia zu erhalten? Wie lange muss/kann/wird das neuronale Netzwerk ein Spiel supporten? Was ist, wenn in 3-4 Jahren der Support wegfällt? Läuft dann DLSS nicht mehr? Oder reichen alte Daten?


Ich finde diese Entwicklung hin zur serverseitigen Berechnung und Always-Connected nicht interessant. Es entsteht eine zusätzliche Abhängigkeit. Irgendwann verschwindet dann ein großer Teil unseres Hobbys, bei dem man seine Hardware kauft, optimiert, ersetzt, tweakt etc. Dann kauft man ein Abo und zahlt wohl für Qualität der Ausgabe der gestreamten Inhalte. Man kann dann seine Hardware immerhin noch für alte Spiele nutzen und den Enklen zeigen.
 
Roche schrieb:
Genau, nach Jahren von "ich kaufe lieber NVidia, die sind ja sooo viel besser" und "Intel ist sooo viel besser" hat AMD natürlich auch unheimlich viele finanzielle Ressourcen für solche Nummern, ist klar.

Selbst jetzt wo AMD mit den Ryzen CPUs handfeste Alternativen zu den Intel Produkten hat, kauft der Großteil der Konsumenten noch immer das überteuerte Intel Zeug.
Wo soll da bitte Budget für größere Entwicklungen und Entwicklerunterstützung in der Spielebranche herkommen?

sei doch nicht so dünnhäutig, oder ist es deine geldbörse? so schlecht war der spruch nun auch wieder nicht und falsch ist er ja auch nicht. alles was du geschrieben hast, wird der zitierte user auch wissen, er wertet die dinge nur anders als du :D

irgend wann flamen die apfel esser die organgen esser voll, weil die orangen aus dem ausland kommen und deutsche arbeitsplätze vernichten. :evillol:

mfg
 
CastorTransport schrieb:
Ganz ehrlich - Kantenglättung hat bei mir beim zocken noch keine Rolle gespielt, da lasse ich meist alles auf Standard. Und ich spiele schon auf WQHD. Allerdings macht das bei schnellen Shooter kaum Sinn, wo man lieber mehr auf fps achtet und diese braucht.
Dem kann ich bedingt zustimmen. Also die Kanten an sich stören mich auch nicht bei 3440x1440, aber das Flimmern, das dabei entsteht ist echt nervig. Das Bild wirkt dann insgesamt sehr unruhig, sodass man dann immer entscheiden muss, ob man mit flimmern oder einem unscharfen Bild leben kann. Ich kann beides nicht leiden :(

@Marflowah

Wenn ich das richtig verstanden habe, dann wird AA und Kantenglättung und alleswasdasbildunscharfmacht nich auf das gesamte Bild angewandt, sondern nur auf spezielle Bereiche, wo es nötig ist. Und das Programm "lernt" quasi selbst zu entscheiden, wo es nötig ist. Irgendwie so, ich lasse mich aber gerne eines besseren belehren.
PS: Nicht hauen, habe noch keinen Kaffee intus :freak:
 
Zurück
Oben