Die Künstliche Intelligenz enttäuscht (nicht nur) ihre Erfinder
Ich hatte die letzten Monate eine gewisse Hoffnung in "Open AIs" ChatGPT via "M$ copilot" entwickelt... Dann fragte ich es kürzlich(!) nach einer Flagge, die ich in der Nachbarschaft gesehen hatte: horizontal gestreift, hellblau, weiß, rot und oben im Blauen etwas, wie einen gelben Greif oder Löwen (war schwer zu erkennen, die Fahne hing herab.)
Copilot schlug mir irgendwas russisches vor. Ich schlug nach: es war völlig falsch. Was ich copilot mitteilte und versuchte es noch weiter und bekam ein halbes dutzend Vorschläge mit Flaggen, die nicht mal mehr trikolorisch horizontal gestreift waren, alles irgendwie assoziert mit "russisch".
Ich fragte dann die google Suche direkt und bekam sofort das Stadtwappen von Rostock. Daraufhin fragte ich copilot, wie die Flagge Rostocks aussehe und es ergoss sich, schwärmend, wie charakteristisch diese sei: "horizontal gestreift, hellblau, weiß, rot und oben im Blauen etwas, wie ein gelber Greif".
Darauf fragte ich es, ob es sich erinnere, wonach ich es gerade gefragt hätte: "Ja, eine Flagge, horizontal gestreift, hellblau, weiß, rot und oben im Blauen etwas, wie einen gelben Greif, dies sei die russische Flagge von"... [Thejo has left the chat]
So was ähnliches bekam ich gestern auf die Frage nach einem Lied und einem Video. Es schlug mir permanent dasselbe vor, obwohl ich wiederholt klar machte, die Antwort sei nicht die richtige. Ich ging davon aus, das sei genau das, was dieses LLM besonders gut können müsste: einfache, bekannte, nicht-spekulative Muster entdecken.