News AMD Instinct MI375: Auf die MI350 soll ein weiterer Chip mit 288 GB HBM3e folgen

Syrato schrieb:
Es soll ja ein Cuda Killer kommen, angeblich.
Das eine Problem ist die Software die andere der Mensch. Umstellungen sind nicht sehr beliebt.
Das Problem bei AMD ist auch immer der overhype, siehe auch in den Foren wie es jetzt zwecks zen5 und rdna4 zugeht
 
  • Gefällt mir
Reaktionen: fox40phil
Ayo34 schrieb:
Da bezahlt man lieber 100€ mehr für eine Nvidia GPU und spart sich hunderte Stunden an Zeit.
Schon sehr überspitzt.
Ergänzung ()

Syrato schrieb:
im Artikel steht, dass angeblich an einer neuen Software getüftelt wird, nicht ROCm.
Eben angeblich. Alles nur unbestätigte Gerüchte. Sie haben mit ROCm bereits eine Basis. Hier weiter auf und auszubauen ist denke ich sinnvoller.
Ergänzung ()

NEO83 schrieb:
Machmal frage ich mich, wenn alle um AMD herum wissen das die Software scheiße ist, wie kann AMD das Problem nicht sehen oder es als großes Problem erkennen und dort gegensteuern?
DevPandi hat es ja bereits gut ausgeführt. Dazu muss man sagen das man Alle die meinen zu Wissen besonders die "Lauten" im Internet und Social Media wie "Hotz" und was Sie sagen auch nicht überbewerten sollte. Vieles wird hier auch mit Kalkül und Berechnung gesagt, geschrieben und veröffentlicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Und ROCm ist dennoch nur bedingt brauchbar und erfordert sehr viel Einarbeitung und bei fast allen gängigen Frameworks auch umfassende Anpassungen durch den Entwickler, damit es wirklich geht.
Kann ich nicht zu 100% mitgehen beruflich und privat. Wenn du auch natürlich zu Großen Teilen Recht hast. Wie du aber sagtest hängt das stark vom Arbeitsumfeld/Umgebung, Firma/Firmen Größe/Knowhow etc ab.
 
DevPandi schrieb:
AMD hat das auch verstanden und ist da dran. Nur hält sich AMD da aus gutem Grund bedeckter.
Intel zeigt aktuell nur ein Bruchteil von dem, was tastsächlich im Hintergrund schon mit ausgewählten Partnern getestet wird ;) Intel hält sich extrem mit Informationen zurück. Alles was man aktuell sieht und hört, zeigt nur die grobe Oberfläche dessen, was noch kommt.
 
Kadett_Pirx schrieb:
In Sachen closed/opensource ticken AMD und nV sicher nicht gleich, da sind seit vielen Jahren prinzipiell ganz andere Ansätze zu erkennen. Natürlich ist AMD ein gewinnorientiertes Unternehmen wie alle anderen.

Was genau hat den AMD an Innovation als erstes gebracht bzw. erforscht und dann Open Source herausgebracht? Mein Eindruck ist einfach, dass Nvidia viel mehr in Entwicklung steckt, dann etwas "Neues" hat und dieses eben dann auch exklusiv für Nvidia Karten herausbringen kann, weil es natürlich keine Alternative gibt.

Wäre ja auch dumm Geld zu investieren und es dann ab Tag 1 direkt der Konkurrenz zu geben. Dann wäre der Anreiz für neue Technologie komplett hin.

Wenn aber die Konkurrenz z.B. Gsync einführt und man dann etwas ähnliches entwickeln muss oder möchte, dann muss der Ansatz ein anderer sein. Entweder es muss deutlich besser sein um es exklusiv anbieten zu können oder man macht es z.B. Open Source. Würde man es auch exklusiv machen obwohl etwas anderes schon großen Marktanteil hat, dann würde es sich weniger wahrscheinlich durchsetzen. Gleichzeitig hat Nvidia überhaupt keinen Vorteil, wenn AMD Freesnyc Open Source anbietet, weil Nvidia sowieso schon eine andere Technologie hat.

Hätte sich AMD Freesync überlegt und Nvidia hätte da nichts gehabt, dann wäre es zu 99% eben NICHT Open Source erschienen und Nvidia wäre vielleicht den Weg von AMD über Open Source mit Gsync gegangen.

Ohne Nvidia hätten wir jetzt vielleicht auch immer noch kein Freesync oder FSR und Co.

Nooblander schrieb:
Schon sehr überspitzt.

Naja, im Arbeitsbereich ist es eben so. 100€ sind da sehr sehr wenig, wenn man täglich mit einem Produkt arbeitet. Eventuell 1 Arbeitsstunde. Wenn die Anwendung dann CUDA benötigt oder dadurch Vorteile hat und allgemein der Support bei Nvidia Karten besser ist, dann kauft man garantiert keine AMD Karte um 100€ zu sparen. Ich hätte mich jedenfalls totgeärgert mit einer 7900xt. Bei nativem Gaming mag es anders sein. Aber selbst bei 4k Gaming mit DLSS anstelle von FSR sind 100€ Unterschied nicht mehr viel bei 1000€ Grafikkarten. AMD muss bei Grafikkarten etwas tun.
 
Icke-ffm schrieb:
MS, Meta, Alphabet und co entwickeln Ihre Software eh selbst und werden mehr auf den Kostenfaktor und Flexibilität achten.
Schon, nur gibt es dann ein anderes Problem in diesem Fall, auf den ich gleich eingehen werde.
Icke-ffm schrieb:
Ich denke aber es ist nur eine Frage der Zeit, bis Firma xy einen Compiler anbietet der auf allen GPUs arbeitet,
ROCm bietet ja bereits "einen" Compiler und Transpiler, der aus CUDA-Code einmal HIP-Code erzeugt und anschließend das sowohl für Nvidia als auch AMD zum laufen bringt. AMD muss hier nur bei einigen der APIs aus CUDA nachziehen.
Icke-ffm schrieb:
für otto normal Anwender sicherlich unsinnig
Das ist allerdings der Kernknackpunkt, den AMD bis zu letzte leider vernachlässigt hat. Wäre HPC und KI so einfach auf Radeon, wie auf GeForce, dann würde "Nachwuchs" nachkommen, die bereits HIP können, programmieren und das auch in die Firmen später mitbringen.

Wenn AMD Studenten und Lehrlinge unterstüzt - wie es Nvidia tut - dann kommt auch da Nachwuchs, die bestimmte Fähigkeiten mit ihrerer Hardware erlangt hätten und das später in Firmen mit bringen.

Auch in Firmen ist Zeit Geld und als Entwicklerin greifst du auch hier auf das Zurück, was du bereits kennst und gut beherrscht. Wenn fast der gesammte Nachwuchs, aber auch quasi alle davor immer mit Nvidia gearbeitet haben, dann ist es für AMD und ebenso Intel sehr schwer das zu durchbrechen.

Gerade die Großprojekte bekommt AMD oft "nur", weil AMD hier bereit ist sehr viele Ressourcen für die Einnahmen aufzuwenden und umfassenden Support und Entwicklungshilfe leistet, damit es geht.

Würde AMD hier effektiver den Nachwuchs fördern und an Unis und Co "präsenter" sein, dann wäre AMD viel öfters bereits "Alternative" durch die Entwickler, die in den Firmen nachkommen.
Nooblander schrieb:
Schon sehr überspitzt.
Das auf jeden Fall, ich hab aber damals auf der 7900 XTX auch teilweise fast 3 - 4 Arbeitstage damit verbracht sowohl Stable Diffusion als Demo für meine Kolleginnen vorzuberieten als auch ein "SML" für einen Chatbot. An das Training konnte ich da nur bedingt denken.

In meiner Position geht das, weil ich massiv freie Hand habe und auch mal solche Aktionen bringen kann. In vielen Firmen sieht das leider anders aus.
Nooblander schrieb:
Kann ich nicht zu 100% mitgehen beruflich und privat. Wie du aber sagtest hängt das stark vom Arbeitsumfeld/Umgebung, Firma/Firmen Größe/Knowhow etc ab.
Da musst du auch nicht 100 % mitgehen. Was ich da schreibe ist auch eher als "in den meisten Fällen" zu interpretieren, aber eben nicht für alle Fälle gültig.

Ich kann da nur aus Gesprächen mit Freunden, Kollegen und Firmen reden und was da so transporitert wird. Es gibt immer aber auch andere Fälle. Gutes Beispiel ist da für mich Linux und Windows. Es ist unglaublich wie weit Windows gerade im "Embedded" Bereich vertretten ist und quasi in jeder Industrieanlage und Co immer noch als Grundlage genutzt wird, währnd sich Linux in diesem Bereich unglaublich schwer tut. Natürlich gibt es Firmen, die Linux verwenden und Entwickler, die das nutzen und im Server-Bereich hat sich Linux quasi durchgesetzt. Sobald es aber in andere Bereiche geht, ist Windows immer noch "State-of-the-Art", auch wenn man es kaum glauben mag und das so manchem Linux Fan - und mir auch - nicht schmeckt.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Ich sehe das durchaus nicht so dramatisch, ja früher war Cuda ein komplettes Monopol mit 99% Marktanteil ca. niemand kam daran vorbei, diese Dominanz ist inzwischen deutlich gebrochen, Rocm und Co müssen unterstützt werden weil es massenhaft CPU basierte K.I. Beschleuniger geben wird.

Ja Nvidia tut verzweifelt alles um dort ne massive Monopolstellung zu halten, aber AMD sitzt ihnen im Nacken, Produkte werden panisch (schlecht getestet) vor gezogen, ein riesen Risiko weil ne hohe Chance ist das die Kunden diese Fehler dann finden und man nichts mehr machen kann, und sie können die Preise nicht mehr ganz so hoch ansetzen müssen alle guten Nodes für K.I. verwenden und ihre Grafikkarten auf schlechteren Nodes produzieren, sie werden gejagt das sie eben noch das super teure Apple sind und wie der Bond Villain noch die Oberhand komplett haben täuscht über vieles Hinweg.

Auch bei Nvidia ist nicht alles Gold wie hier immer behauptet wird, mit Arm haben sie komplett in die kacke gelangt, obwohl Nvidia sehr stark will haben sie bei CPU komplett versagt.

K.I. wird keine Nvidia Only Geschichte bleiben, btw auch MS und andere Stellen ihre eigenen K.I. Beschleuniger her, sie versuchen quasi nur vor der Welle die hinter ihnen sich aufbaut zu bleiben, das wird nicht ewig gelingen. Und RocM und co ist gut genug entwickelt sich gut genug das genug Leute nicht bereit sind auf ein totales Nvidia Monopol zu setzen.

Selbst wenn Nvidia dann wieder 90% Marktanteil haben sollte dann nur mit Preisen die sie ohne AMD deutlich höher hätten und 10% von gigantischen Summen ist immer noch viel und irgendwann wird die Bubble eh platzen.
 
Geht mittlerweile auch einigermaßen unter Windows. Aber auch bei Updates von diversen Erweiterungen muss man immer hoffen bei einer AMD-Karte. Mit Nvidia ist es weiterhin einfach unkomplizierter. Auch viele Tests laufen erst mal mit Nvidia Karten. Stable Diffusion ist ja viel mehr als einfach nur 1 Programm, welches nicht mehr verändert wird.

Andersherum hat man irgendwie nie einen Vorteil durch AMD. Noch nie gesehen, dass erst für AMD optimiert oder entwickelt wurde und dann Nvidia-Support kam. Bei jedem Tool hat man erst mal eine Anleitung für Nvidia und wenn man dann Glück hat darunter eine für AMD.

Vor einem Jahr ging gar nichts mit AMD unter Windows, nach einem halben Jahr war unter Automatic1111 die Performance einer 7900xtx langsamer als bei einer alten 3060. Und wenn dann nach einem Jahr alles ordentlich läuft, ist bereits Stable Diffusion 3 auf dem Markt und das ganze fängt wieder von Neu an. Und das kann man sich eben ersparen, wenn man für ein paar € mehr eine Nvidia Karte kauft.
 
fox40phil schrieb:
Geht das auch unter Windows? Oder in einer Linux vm?
Geht auch unter Windows. Ich hatte es ohne der AMD Anleitung mit etwas Googlen in grob 30 Minuten am Laufen. Am längsten hat fast noch das Installieren und Einrichten von Git und Python gedauert...
Läuft bei mir auf 6800XT mit aktuellem 24.3.1
 
  • Gefällt mir
Reaktionen: JarlBallin und fox40phil
Nooblander schrieb:
Eben angeblich. Alles nur unbestätigte Gerüchte. Sie haben mit ROCm bereits eine Basis. Hier weiter auf und auszubauen ist denke ich sinnvoller.
Es gab bereits eine Drop-In-Variante von CUDA - ZLUDA. Deren Entwicklung wurde allerdings eingestellt.

fox40phil schrieb:
Geht das auch unter Windows? Oder in einer Linux vm?
Weiter oben habe ich eine Anleitung von AMD verlinkt. Es gibt sicherlich noch viele weiter Ansätze.
 
  • Gefällt mir
Reaktionen: fox40phil und Nooblander
@Ayo34
Bei Linux ist es meist genau andersrum, mit AMD ist durch den open source Ansatz das meiste deutlich unkomplizierter.

Bei Stable Diffusion musste ich nur ein paar Startparameter setzen, das wars. Das Lernen der Grundlegenden Bedienung von SD hat mir deutlich mehr Zeit abverlangt.
 
  • Gefällt mir
Reaktionen: JarlBallin
Nooblander schrieb:
DevPandi hat es ja bereits gut ausgeführt. Dazu muss man sagen das man Alle die meinen zu Wissen besonders die "Lauten" im Internet und Social Media wie "Hotz" und was Sie sagen auch nicht überbewerten sollte. Vieles wird hier auch mit Kalkül und Berechnung gesagt, geschrieben und veröffentlicht.
Ja gut es ist aber halt eben so das AMD die Entwicklung dort durchaus "verpennt" hat und das kann man eben nicht leugnen. Mir ist auch bewusst das man das nicht mal so eben aufholt aber es kommt von AMD oft nur eine Ankündigung und danach ist lange stille ... trifft ja so auch im Consumerbereich zu ...
Man muss halt abwarten was noch so passiert aber ein Monopol wie es NV hat ist halt nie wirklich gut.
Ich bin weder AMD, Intel oder NV Fan aber ich bin halt immer dafür das der kleinere gepusht wird ... wie auch immer ... so wünsche ich mit bei den GPUs auch das Intel zu den beiden anderen aufschließt und AMD mit der nächsten Gen zu NV obwohl das ja wohl so nicht passieren wird aber wünschen kann man es sich ja :)
 
metoer schrieb:
@Ayo34
Bei Linux ist es meist genau andersrum, mit AMD ist durch den open source Ansatz das meiste deutlich unkomplizierter.

Bei Stable Diffusion musste ich nur ein paar Startparameter setzen, das wars. Das Lernen der Grundlegenden Bedienung von SD hat mir deutlich mehr Zeit abverlangt.

Das Problem bleibt aber, dass die 3% Linux User für gewöhnlich schon zu den technisch versierten Leuten gehören, die es auch irgendwie hinbekommen. Sowohl mit AMD als auch Nvidia. Dagegen hat man dann über 80% Windows User, wo viele schon mit einfachen Dingen Probleme haben. Aber genau diese sind dann mit einer AMD Karte + KI-Anwendungen wie Stable Diffusion schnell überfordert.

Am Ende muss sich AMD überlegen wie sie den Marktanteil erhöhen können und bei KI im Heimbereich ist Nvidia, gerade unter Windows, eben klar vorne... hoffen kann man nur, dass AMD, Intel und eventuell der ein oder andere Big Player etwas Nvidia entgegen setzen kann. Das wäre für die ganze Branche gut.
 
DevPandi schrieb:
Wenn AMD Studenten und Lehrlinge unterstüzt - wie es Nvidia tut - dann kommt auch da Nachwuchs, die bestimmte Fähigkeiten mit ihrerer Hardware erlangt hätten und das später in Firmen mit bringen.
Na das tun sie doch, zumindest inzwischen auch, muss der Prof. bzw Uni halt nur anfragen und ich denke mal gerade Uni anfragen werden sicherlich bevorzugt. wohl auch ein Grund wieso AMD bisher noch nicht wirklich etwas mit der Server Sparte verdient, weil das meiste eben für non Profit oder eben gespendet wird.
( nur meine Vermutung/Meinung )
https://www.amd.com/de/corporate/university-program.html
 
Icke-ffm schrieb:
Na das tun sie doch, zumindest inzwischen auch
Klar, sie lernen an der Stelle dazu, und sie hatte auch lange nicht die Mittel dafür, aber das sind halt alles Sachen, die AMD jetzt erst in Angriff nimmt und daher einfach hinten ansteht.

AMD hat noch einen weiten Weg vor sich.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Ich hatte auf einer Servermesse mal eine Aussage bekommen, die man bei dem Ganzen Thema nicht vergessen sollte. Der ungefähre Wortlaut war "Es gibt viele die für CUDA optimieren können. Man kennt sich mit CUDA aus und es funktioniert. Keiner hat Lust etwas neues zu lernen, weil es keinen Grund gibt. Die Hardwarepreise spielen dabei keine große Rolle."
 
Zurück
Oben