News Google I/O 2024: Neue Gemini-1.5-Modelle für den KI-Wettstreit mit OpenAI

was bringt es mir dann aber wenn ich der Aussage nicht vertrauen kann und eh nach recherchieren muss?
Bei einer Google Suche komme ich direkt zu einer Quelle die ich ungefähr einschätzen kann von Ihrer Qualität.
 
@KurzGedacht Ich frag ja kaum was weil Nonsens, aber gerade ganz leichte medizinische Fragen oder Fragen aus der Physik und es wird gefährlich oder Nobelpreise müssen neu vergeben werden 😂

Die sogenannte KI ist nur darauf trainiert, möglichst plausibel zu klingen. Als wenn dich ein 5 jähriger mit Schokomund anlügen will, dass er nicht weiß wer die Schokolade gestohlen hat.
 
Donnidonis schrieb:
Sich nur auf die Ankündigung der kleinen Dinge zu beschränken ist schlicht falsch bzw. zeigt es, dass man sich mit dem Thema bzw. den möglichen und schon genutzten Einsatzmöglichkeiten einfach nicht beschäftigt.

Ich kann ja nur das bewerten und später benutzen, was jetzt angekündigt wird. Und wie gesagt, da holt mich die Google I/O nur wenig ab.

Und Templates, Macros, prozedurale Generation etc. gab es auch schon vor den jetzigen AI Modellen. Ich hab mir schon in meiner Ausbildung 2007 Macros geschrieben, um die immer gleichen Textbausteine mittels einer Tastenkombination in ein bestimmtes Programm einzufügen, während andere Kollegen alles von Hand eintippten. Jetzt einen AI Agenten zu verkaufen, der mir sowas abnimmt ist nett, aber viel mehr dann auch nicht.

Diese Tools entwickeln sich jetzt weiter und werden eventuell umfangreicher. Das ist auch ok bzw völlig normal. Aber in welchen Bereichen man auch tatsächlich davon profitiert, wird man erst noch erarbeiten müssen. Mein Eindruck ist bisher noch verhalten, weil ich das ultimative Mega-AI-Produkt, dass die ganze Welt auf den Kopf stellt, noch nicht sehe, aber das Gefühl habe, der aktuelle Trend soll so verkauft werden.
 
yii schrieb:
Ich kann ja nur das bewerten und später benutzen, was jetzt angekündigt wird. Und wie gesagt, da holt mich die Google I/O nur wenig ab.
Mein anfängliches Zitat ging allerdings auf einen Kommentar der den AI Hype in Gänze betraf und meinte, dass es endlich weg kann. Nicht nur bezogen auf das Google Produkt. Das im konkreten kann man ja kritisieren, aber das ganze Konzept in Frage zu stellen halte ich für sehr weit hergeholt.
yii schrieb:
in meiner Ausbildung 2007 Macros geschrieben, um die immer gleichen Textbausteine mittels einer Tastenkombination in ein bestimmtes Programm einzufügen,
Ich weiß ja nicht ob du jemals Copilot oder Ähnliches beim entwickeln genutzt hast, aber das mit einem Makro zu vergleichen was dir einen definierten Text einfügt ist schon nahezu verwerflich. Du kannst dir Quellcode in vielen Sprachen generieren lassen, Dokumentation dazu, Testcases etc. Mit der IDE Integration musst du oft einfach nur noch tab drücken und es kommt super Code raus.
Oder du gibst Tabellen vor und sagst schreib einen Code der die Tabelle einliest mit pandas xyz transformiert und in Format abc ausgibt. Zack, fertig. Man muss es halt verstehen können, aber das hat 0,0 mit Markos von 2007 zu tun.
yii schrieb:
Aber in welchen Bereichen man auch tatsächlich davon profitiert, wird man erst noch erarbeiten müssen.
Nein, dass muss man nicht. Es ist schon geschehen. Es kommen weitere Bereiche dazu und manche werden wegfallen, aber es gibt schon jetzt einen Haufen Bereiche, die ihre Arbeit dadurch viel effizienter gestalten können.

Natürlich gibt es Bereiche in denen es nichts bringt. Wenn man nur die kennt ist es klar, dass man am Erfolg der Technik zweifelt. Aber dann glaubt doch wenigstens denen, die ihre Produktivität um bis zu dem 10fachen steigern können.
 
h3@d1355_h0r53 schrieb:
Die sogenannte KI ist nur darauf trainiert, möglichst plausibel zu klingen. Als wenn dich ein 5 jähriger mit Schokomund anlügen will, dass er nicht weiß wer die Schokolade gestohlen hat.
Ich stimme zu, dass die Dinger überzeugend Bullshit erzählen können. Allerdings eher wie ein recht gebildeter Student der versucht sich in einem ihm fremden Fach ohne lernen durch ne mündliche Prüfung zu schummeln, als wie ein 5 jähriger.

Aber irgendwie klingt es als hättest du zuletzt gpt3.5 mal ernsthaft probierte?

Vielleicht liegt es arg am Fachgebiet aber zumindest in meinen Bereichen sind die Ergebnisse schon ziemlich beeindruckend. Nun sind im Entwicklungs/DevOps Bereich aber eben auch unmengen an Trainingsdaten in dem Modell. All der Code auf github, unmengen an öffentlichen API Dokumentation, zig Diskussionen zu quasi jedem denkbaren Problem auf Stackoverflow usw....
Ja auch da passieren bisweilen noch teils blöde Fehler aber im großen und ganzen sind die Ergebnisse schon extrem gut brauchbar.
Fast alles was ich an Code von dem Ding bekomme läuft im ersten Versuch oder spätestens nach der ersten Korrektur.
Ergänzung ()

h3@d1355_h0r53 schrieb:
aber gerade ganz leichte medizinische Fragen oder Fragen aus der Physik und es wird gefährlich
Kannste mal 2-3 Beispiele nennen? Das sind beides nicht meine Gebiete aber zumindest bei einfachen Fragen würde ich erwarten dass einigermaßen vernünftige Antworten kommen. Zumindest solange du von dem Teil nicht verlangst zu rechnen. Das geht tatsächlich nicht so wirklich (auch wenn auch der Teil merklich besser geworden ist). Dafür sind LLMs aber auch schlicht ungeeignet.
 
Zuletzt bearbeitet:
Zurück
Oben