KI-Alltag - Diagramme in Gemini - die Zweite!

In meinem Posting von Mai 2024 habe ich Gemini und ChatGPT 3.5 + Wolfram getestet wie sie bei der Erkennung von Diagrammen aus Bilddateien abschneiden. Es war zwar beeindruckend, aber nicht sehr präzise.

Gleicher Test, einen Monat später:

Antwort von Gemini Advanced

Exakt gleicher Prompt und gleiches Bild bei OpenAI hochgeladen:

Antwort von ChatGPT4o

Das ist schon echt beeindruckend! Beide LLMs treffen die Werte exakt! Natürlich nicht für jedes Diagramm, aber es ist kein Vergleich zu den Ergebnissen vor einem Monat. Wow!


Halluzinationen bei Gemini Advanced

Wenn ich im gleichen Chat mehrere unterschiedliche Diagramme analysieren wollte, halluzinierte Googles KI deutlich - die KI war auf das erste Bild "eingeschossen" und hat nicht erkannt, dass es eine komplett neue Analyse starten sollte. Wahrscheinlich hätte man das durch geschicktes Prompten umgehen können, aber ChatGTP hatte dieses Problem nicht...

A propos Prompting...

Der Prompt beschränkte sich dieses mal auf minimale Informationen - wahrscheinlich hätte ich der KI noch nicht mal eine Persona (Datenanalyst) geben müssen.

Das ist ein Hinweis auf einen Trend seit GPT4o: Genaues Prompting wird weniger wichtig, die Modelle werden so gut, dass sie besser merken, was man von ihnen möchte.

Spannende Zeiten!


Beliebte Posts aus diesem Blog

KI Alltag - Diagramme, Wolfram Alpha und GPTs

KI Alltag - So bringen Sie Ordnung in Ihre KI-Gespräche

KI-Alltag - NotebookLM Test