Semi-OT: persönliche Erfahrungen mit ChatGPT (M$ Bing)
Dass eine KI, wie ChatGPT, bestimmte Abläufe erleichtern kann, halte ich - aus eigener Erfahrung - für möglich. Doch bei juristisch wasserfester Hilfe gegen eine Regime-Leitlinie habe ich starke Zweifel. Da verhält sich die Zensur in (dem öffentlich zugänglichen) ChatGPT eher, wie die Leute beim örR selbst. Und politisch installierte Richter kann auch eine KI nicht austricksen.
Ich nutzte (nun) gelegentlich Bing Chat (via Firefox), weil es tatsächlich bessere Web-Suchergebnisse liefern kann. Aber es ist mit viel Vorsicht zu nutzen. Ich hatte sehr spezielle technische Fragen, zu der ich auf Web-Seiten und in den originalen Datenblättern nix finden konnte. Bing-Chat gab mir selbstbewusst und in seiner (bei mir) etwas Ekel erregenden Überfreundlichkeit gar Code-Beispiele. Die nicht nur meine Fragen falsch beantworteten, sondern auch technisch falsch waren. Schrägerweise hat es auf meinen schlichten Hinweis hin, dass die Antwort falsch sei, dann korrekt geantwortet: "Es tut mir Leid, sie haben natürlich Recht..."
Durch die pseudo-moralische Gutmensch Zensur, sind die Ergebnisse von Bing-Chat eingeschränkt. Besonders, wenn man eben kritsch nach etwas fragt, dass von der Leitlinie "Ich verstehen sie, doch Geschmäcker seien verschieden und Anspruch an Qualität sei subjektiv" abweicht. So sehr, dass es einfach mal Ergebnisse ausfiltert. Bzw. muss man so herum formulieren mit seinen Fragen, dass irgendwann auch die KI durchsickern lässt, dass viele Menschen bestimmte Dinge eben nicht so rosarot wahrnehmen...
Ich bat wiederholt, sich bei Antworten nicht auf Wikipedia zu beziehen. Und obwohl die KI das bestätigte bestanden die Antworten weiterhin auch aus Wiki-Referenzen.
ChatGPT soll einen sog. "DAN" Modus haben (do anything now), der die Zensur absenkt und auch politisch inkorrekte Antworten gestattet. Doch auch dabei sollen die Entwickler mit jedem Vorstoß die Lücken schließen.