News „Special Keynote“ zur Computex: Nvidias CEO kommt den Kollegen von AMD und Intel zuvor

Cabranium schrieb:
Dämlich würde ich es nicht nennen. Wenn man eigens spezialisierte AI Modelle für gewisse Tätigkeiten Trainiert, dann können die ein grossen Faktor in der Industrie Spielen und Arbeiten erleichtern.
Ich sehe eher diese Öffentlichen Allrounder AI‘s kritisch.
naja, ich verstehe ihn @gartenriese schon.. gefühlt jedes jahr gibt es auch im "business" sektor einen begriff, der absolut totgeritten wird. habe früher (ab 2005) mehrere jahre auf der cebit gearbeitet, und damals gab es das schon. gefühlt ALLE hersteller werben plötzlich damit, ob sie es sinnvoll anbieten können, oder nicht. hauptsache, es steht auf dem schild.
beispiele wären da:
SIP
VPN
CLOUD
MESH
Blockchain

viel später dann
industrie 4.0 (da war gefühlt alles, was einen stecker hatte, plötzlich 4.0)
AI / KI (früher nannte man das "routinen", jetzt ist es plötzlich alles AI)

ich meine, wenn selbst jeder noch so kleine schaltkreis, der früher als cpu verkauft wurde, plötzlich KI-fähigkeiten hat.. :rolleyes:

das nervt schon ein bisschen, weil es die begriffe verwässert und kunden täuscht.
 
  • Gefällt mir
Reaktionen: DrSeltsam95, Majestro1337, LTCMike und 2 andere
iNFECTED_pHILZ schrieb:
Industrie 4.0 wurde von vielen sehr missverstanden. Man darf es als Leitfaden und nicht als konkretes Konzept betrachten.
Das Ziel war maximale Kontrollmöglichkeiten zu leider auch maximalen Aufwand
... Dem Arbeiter entsteht durch Industrie 4.0 erst mal nur Mehrarbeit. Der Mehrwert ist 1-2 Etagen drüber nur ersichtlich und auch da sicher nicht jedem. Der Widerstand gegen einen solchen change ist naturgemäß enorm. Wenn ich jetzt aber die Arbeit selbst schlanker gestalte sieht auch Max Mustermann dass ein Einsatz sinnvoll sein kann.
Ich weiß ja nicht ob Ihr in eurem Betrieb Industrie 4.0 richtig verstanden habt.
Ziel ist die gesamte Betriebsinfrastruktur zu vernetzen und kommunizieren zu lassen damit man eben redundante Arbeiten nicht mehr Mitarbeitern übertragen muss und man sich Informationen jederzeit über das ERP System ziehen kann.
Richtig angewandt reduziert eine vernünftige Integration von Industrie 4.0 den Arbeitsaufwand und Fehlerwahrscheinlichkeit.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Faust2011 schrieb:
Andererseits hat AMD, ähnlich wie Nvidia, im Bereich AI-Computing erst kürzlich Neues aufgelegt: AMD MI300A & MI300X: Die neue Instinct-Serie ist ein Meilenstein in vielen Bereichen
MI300 wird seit Anfang letzten Jahres ausgeliefert. Einige Prototypen des ElCapitan (All AMD Supercomputer für das Lawrence Livermore National Laboratory und Anwärter für Platz1 oder 2 in der Top500) waren bereits Juni 2023 in der Top200 Liste. Und AMD hatte zuletzt eine recht hohe Taktzahl im Bereich Compute Karten, zwischen MI100, MI250 und MI300 (also den verschiedenen Generationen) waren jeweils unter 2 Jahre, teilweise kaum über 1 Jahr. Insofern wäre ein MI350 (oder wie auch immer der Name lautet) durchaus denkbar. AMD braucht die kurzen Zyklen auch, um zu NVidia aufzuschließen.
Das haben sie inzwischen auch recht gut gemacht, vor Blackwell hatte AMD in allen Bereichen das klar schnellere Produkt. Entsprechend werden sie versuchen, möglichst bald mit der nächsten Generation wieder heran oder vorbei zu kommen, um sich Marktanteile bei AI Hardware zu sichern und entsprechend Gewinne abzuholen.
 
  • Gefällt mir
Reaktionen: Faust2011
Computex 2024 findet offiziell vom 4. bis zum 7. Juni in Taipeh, Taiwan statt.
Huang wird seine Rede bereits am Sonntag, den 2. Juni um 19:00 Uhr Ortszeit [...] halten
AMDs Keynote zur Computex 2024 wird am Montagmorgen (3. Juni 9:30 Uhr Ortszeit),
Intels Keynote zur Computex 2024 am Dienstagvormittag (4. Juni 11:00 Uhr Ortszeit)

Das ist ja echt irre.
Die machen den "Wettbewerb" wer als erstes Reden darf und jeder schiebt sich vor den jeweils anderen um möglichst breit mit Aussagen durch zu kommen und den Aktienkurs / Bedeutung zu unterstreichen.
Es sieht aus als ob Intel der einzige ist der nach den Regeln spielt und daher als "letztes" im Dreiergespann dran kommt xD
 
Ist mir völlig Latte, wer zuerst spricht.

Es können nunmal nicht alle gleichzeitig reden.

Bin gespannt, was alle drei zum Sagen haben! 🤩
 
  • Gefällt mir
Reaktionen: ComputerJunge, Oberst08, edenjung und 3 andere
Stellt sich ja auch die Frage, ob es besser ist, zuerst zu reden oder zuletzt. Wer zuerst dran ist, bekommt natürlich die meiste Aufmerksamkeit am Anfang, aber wer zuletzt redet und alles kontern kann hat die nachhaltigere Aufmerksamkeit hinterher.
 
Faust2011 schrieb:
Wobei sich ja Intel zuletzt selbst ein Eigentor geschossen hatte mit den Stabilitätsproblemen unter Last, gerade bei UE5-Engine-basierten Games. Der derzeit kursierende Fix dafür kann im Extremfall richtig Performance kosten :o
Wo kann man darüber etwas nachlesen? Ich habe das alles wohl verpasst :confused_alt:
 
X-Bow schrieb:
.
Richtig angewandt reduziert eine vernünftige Integration von Industrie 4.0 den Arbeitsaufwand und Fehlerwahrscheinlichkeit.
Soweit so richtig. Ich bezweifle auch nicht die Sinnhaftigkeit des ganzen. Aber wenn man solch Projekte in der Fertigung zb ausrollt bedeutet es für alle Beteiligten zunächst mal Mehrarbeit. Vorher einfache Prozesse und Gewohnheiten müssen nun zwangsläufig nochmal digital abgebildet werden. Hast du sowas schon mal selbst betreut? Den Leuten am Band oder der Maschine sind die Vorteile schwer zu erklären, wirklich vom Konzept überzeugt sind da die wenigsten.

Und das ist der große Unterschied zu KI. Die vereinfacht im ersten Schritt die Arbeit für die Personen draußen. Da ist die Akzeptanz ungleich höher als sie bei Industrie 4.0 Themen jemals hätte sein können. Höchstens Zweifel am Datenschutz hört man hier und da. Aber das hat man bei Industrie 4.0 genauso.

Versteh mich nicht falsch. Ich finde sogar dass sich KI wunderbar in bereits vernetzte Systeme einbinden lassen wird und da unheimlich viel Potential schlummert. Ohne Vernetzung und der damit verbundenen Mehrarbeit funktioniert KI aber eben auch in vielen Bereichen.
 
iNFECTED_pHILZ schrieb:
Aber wenn man solch Projekte in der Fertigung zb ausrollt bedeutet es für alle Beteiligten zunächst mal Mehrarbeit. Vorher einfache Prozesse und Gewohnheiten müssen nun zwangsläufig nochmal digital abgebildet werden. Hast du sowas schon mal selbst betreut? Den Leuten am Band oder der Maschine sind die Vorteile schwer zu erklären, wirklich vom Konzept überzeugt sind da die wenigsten.
Keine Ahnung wie das bei euch gelaufen ist, aber bei uns musste bisher nichts "nochmal digital" abgebildet werden.
Vorher haben die Mitarbeiter handschriftliche Zettel ausgeführt, die dann später dem Schichtleiter übergeben wurden, der sie dann in ne Excelliste übertragen hat, auf die dann die Dispo etc zugreifen konnte.

Jetzt gehen 80% der Infos, die die Mitarbeiter aufgeschrieben haben direkt von den Maschinen übers Netzwerk ins ERP System, wo die Dispo direkt Zugriff auf alles hat und die restlichen 20% werden an einem PC der an jeder Produktionslinie steht eingetippt und landen so auch direkt im ERP.
Also die Mitarbeiter müssen 80% weniger selbst protokollieren und die 20% die sie noch protokollieren müssen, gehen schneller.
 
Taxxor schrieb:
Jetzt gehen 80% der Infos, die die Mitarbeiter aufgeschrieben haben direkt von den Maschinen übers Netzwerk ins ERP System, wo die Dispo direkt Zugriff auf alles hat und die restlichen 20% werden an einem PC der an jeder Produktionslinie steht eingetippt und landen so auch direkt im ERP.
Also die Mitarbeiter müssen 80% weniger selbst protokollieren und die 20% die sie noch protokollieren müssen, gehen schneller.
Klar, reine digitalisierung wird meist gut akzeptiert. Aber wenn die Rollwägen mit Material jetzt einen qr Code haben den man bei Erhalt erst mal scannen muss (damit Materialfluss 1:1 abgebildet werden kann) nervt das den Mitarbeiter. Das dies dann wiederum entscheidend für hallenplanung und prozessoptimierung ist, sieht der nicht.
 
Botcruscher schrieb:
Mit Blockchain, Metaverse und NFT!

Die Frage ist nur wie es bleiben wird. Da wird vom Marketing auch nicht viel in der Realität ankommen.
Wäre schade drum. Die für das inferencing benötige Hardware wird dank DLSS ja weiterhin gebraucht, was für eine Verschwendung das ganze nur für sowas zu verwenden.
 
Es wird ja schon etwas länger spekuliert wie sehr durch den "AI-Markt" zukünftige Nvidia-GPUs überhaupt noch in erster Linie für Spiele entwickelt werden, wobei das natürlich noch reine Spekulation ist.^^

Und Blackwell wird ja wenn ich das richtig verstanden habe "nur" mehr oder weniger dafür da sein AI schneller und gleichzeitig deutlich energie-effizienter zu trainieren.^^
 
LamaMitHut schrieb:
Also von DLSS sollte man eigentlich mal gehört haben, wenn man auf Computerbase unterwegs ist.
🤦‍♂️
Irgendwie schwer vorstellbar, das alle im Artikel genannten Kollegen von "DLSS" (oder upscaling) reden, wenn sie über "breakthrough AI capabilities from the cloud to the edge, PCs, and intelligent end devices" sprechen.
 
Zuletzt bearbeitet:
Zurück
Oben