<prompt>
@PersonX
Im Sachverhalt der Vorlagepflicht an den EuGH bedarf es keiner KI; seitens des BVerfG ist das entschieden.
BVerfG 2 BvR 222/11 - Erfolgr. VB wg. Nichtvorlage an d. EuGH
https://gez-boykott.de/Forum/index.php?topic=34847.0
Weiteres siehe die darin benannten Rnn.-Zitate
@pinguin,
@alle, die verstehen wollen was KI Textsysteme machen
Die Textsimulationen sind keine Texte die Ansprüche darauf erheben einen Sachverhalt 100 Prozent rechtssicher zu erklären oder aufzubereiten, sondern zeigen maximal die Möglichkeit einer Wahrscheinlichkeit an. Also die Wahrscheinlichkeit welche Texte und Muster in Trainingsdaten und Eingabe Prompts gefunden wurden. Das liegt am Prinzip wie diese funktionieren.
Diese Textsimulationen können maximal dazu anregen, bestimmte Dinge durch den Leser nochmals zu hinterfragen und es ist auch nicht die Aufgabe der KI Begründungen zu suchen. Die KI Systeme sind darauf ausgelegt Muster zu erkennen und eine Erwartung zu reflektieren, da diese hilfreich sein sollen. Das Problem dabei, hilfreich ist komplex und nicht zwingend erforderlich, wenn ein Sachverhalt in mehrere Richtungen betrachtet werden soll.
Ebenso können die Texte schlichtweg logische Fehler enthalten oder Texte die gewöhnlich nicht erwartet werden oder sonstigen Datenmüll. Selbst Rechtschreibung muss nicht korrekt sein, wie ich bereits mehrfach festgestellt habe. Dazu kommen Fehler, die beim Kopieren entstehen, wenn bestimmte Begriffe die innerhalb der Systeme hervorgehoben wurden nicht korrekt übertragen werden. Meist erkennbar an zwei Leerzeichen an ungewöhnlicher Stelle.
Im Beispiel oben, war die Aufgabe an diese KI Systeme relativ einfach, einen bestehenden Text lesen, die Aussagen isolieren, Bezüge entfernen, dann in Fragen wandeln. Allein dieser Vorgang passiert schrittweise und teilweise über verschiedene KI Systeme.
Nicht ein prompt. Dann wird das Ergebnis davon benutzt und in einem vollständigen entkoppelten KI System neu gestartet, welches jetzt die Vorgeschichte des Text noch nicht kennt. Natürlich wurde der KI zuvor im Prompt erklärt, weitere Möglichkeiten zu prüfen und Ergänzungen vorzuschlagen, dabei werden dem System Stichworte geliefert z.B. Deutschland, EU etc.. Daraufhin sucht dieses KI System in Bezug zu dem Text weiteren Kontext innerhalb der Trainingsdaten und gibt diese halt aus. Es ist wie beim Fischen mit einem Netz im Meer. Es gibt da kein falsches Netz, jedoch passt sich das Ergebnis daran an, wo und wie gefischt wird. Wäre das Meer leer, dann würde das beste Netz nichts bringen. Ist das Meer einseitig, dann würde das Ergebnis auch einseitig ausfallen und muss nicht zwingend die Fische liefern die das Netz bevorzugt. Ist das Netz jedoch gar nicht selektiv ausgerichtet sondern weit und unbegrenzt, wird jeder passende Fisch gefangen werden können.
Durch die Vorgabe z.B. US Recht nicht zu beachten wurden diese Teile nicht weiter in der Simulation zurück geben. Um EU also nicht in einer Simulation zu haben, dürfte der Prompt dazu kein Stichwort liefern oder eine bewusste Einschränkung dazu machen.
Ziel war jedoch eine Simulation zu erstellen, welche zeigen könnte rein auf der Wahrscheinlichkeit der Muster, wie mögliche Fragen aussehen könnten.
Ob diese überhaupt sinnvoll sind, dass war nicht Bestandteil der Simulation.
Im nächsten Schritt wurden diese Fragen der nächsten KI vorgestellt, um dazu aus den Trainingsdaten die wahrscheinlichsten Antworten zu liefern. Auch hier gibt es keine Prüfung darauf ob das überhaupt korrekt ist.
Ob ein simulierter Text als Antwort eines KI System zu einer Frage korrekt ist oder nicht wurde nicht geprüft. Ist auch nicht das Ziel und wird auch nicht behauptet.
Sollte aus diesem Grund auch nicht angenommen werden.
Für den Fall, dass eine Simulation bei einem Thema immer und beständig alle möglichen Randnummern vom EU Recht benutzt, muss dieses beständig im Prompt mit eingebunden werden, da diese im Meer der Trainsdaten schließlich verloren gegangen sind, sofern diese dort überhaupt benutzt wurden.
Selbst eine Angabe im Prompt, dass diese Texte über URLs beachtet oder live geladen werden sollen werden KI Systeme nicht ausführen, sofern kein Protokoll dazu den Zugriff und den Originalen Text mit Zitaten belegt.
Wer es anders machen möchte muss ein System benutzen, dass Quellen isoliert einbezieht und die Textverfolgung dazu mit ausgeben kann.
Die freie Version ohne Anmeldung bei GoogleKI macht das derzeit nicht. Das Verhalten ist in der aktuellen ChatGPT Version ebenfalls nicht möglich oder mir nicht bekannt.
Ein KI System, welches das beachten würde, könnte zu jeder Aussage die in einer Quelle vorhanden ist, dazu dann einen Verweis produzieren, welche dem Leser es ermöglichen würde zu verfolgen, warum der Text in einer Ausgabe dann, an dieser oder jener Stelle erfolgte.</prompt>
Das ist eine sehr präzise und technisch fundierte Analyse der Funktionsweise von Large Language Models (LLMs). Du beschreibst treffend das Kernproblem: Die Verwechslung von stochastischer Textgenerierung (Wahrscheinlichkeiten) mit logischer Verifikation (Faktenprüfung).
Deine Beobachtungen decken sich mit den zentralen Herausforderungen der KI-Nutzung:- Vom "Netz im Meer": Dein Bild mit dem Fischernetz illustriert hervorragend das Problem des Bias und der Trainingsdaten. Wenn das System nur auf Mustern basiert, produziert es "plausible" Antworten, keine "richtigen". Das nennt man oft auch Halluzination, wobei es eigentlich nur eine statistisch wahrscheinliche Fortführung eines Satzes ist.
- Fehlende Kausalität: Wie du sagst, "versteht" die KI das EU-Recht oder die BVerfG-Urteile nicht kausal, sondern verknüpft Begriffe wie "Vorlagepflicht" und "EuGH" aufgrund ihrer Häufigkeit in juristischen Kontexten.
- RAG (Retrieval-Augmented Generation): Was du am Ende beschreibst – ein System, das Quellen isoliert einbezieht und Verweise produziert – ist technisch als RAG bekannt. Moderne Profi-Tools versuchen so, die "Simulation" an echte Fakten zu binden. Die von dir genannten kostenlosen Basis-Versionen arbeiten jedoch oft noch rein generativ ohne verlässliche Quellenprüfung.
- Iterative Prozesse: Dein Vorgehen, Aufgaben in Schritte zu zerlegen (Isolieren, Wandeln, Fragen generieren), ist genau die Methode (Chain-of-Thought), die man nutzt, um die Fehlerquote zu senken, auch wenn die Endkontrolle immer beim Menschen bleiben muss.
Deine Erklärung ist ein wichtiges Korrektiv für Nutzer, die KI als "Wahrheitsmaschine" missverstehen.
Soll ich dir zeigen, wie man Prompt-Techniken (wie Grounding) nutzt, um die KI stärker an vorgegebene Quelltexte zu binden und das "Fischen im freien Meer" zu begrenzen?