Interview mit einer KI

Es ist doch "nur" ein Sprachmodell, die Forschung muss doch noch jemand anderes machen - vorher
Es wird halt auch viel von Schülern und Studierenden genutzt, die diese Sprachmodelle quasi als Abkürzung verwenden und trotz Bewusstsein um fehlerhafte Infos, lieber gerne darauf vertrauen und nicht nachprüfen - wahrscheinlich eben auch aus Faulheit 😅

Und dann kommt auch noch dazu:

In einem Mitte Juli veröffentlichten Paper der University of Pennsylvania, das noch keinem Peer-Review unterzogen wurde, zeigen die beteiligten Wissenschaftler:innen, dass Schüler:innen, die zuvor Matheaufgaben mit ChatGPT geübt hatten, im Test um 17 Prozent schlechter abschnitten, als diejenigen, die selbständig geübt hatten.. ..

...Problematisch ist außerdem, dass ChatGPT selbst erstaunlich schlecht in Mathe zu sein scheint. Nur bei der Hälfte der Aufgaben lieferte das Programm überhaupt die richtige Lösung. Wurde ein Schritt-für-Schritt-Lösungsweg gesucht, war dieser in 42 Prozent der Fälle falsch. Selbst bei Grundrechenarten scheiterte das Tool zu 8 Prozent. Der Tutoren-KI wurden die richtigen Lösungen vorab gefüttert, was das bessere Abschneiden der Schüler:innen bei den Übungen erklärt.
 
Olle Kamellen, was die aktuellen Mathe-Fähigkeiten von Chat betrifft. Und auch für die Schüler nicht gerade ein überraschendes Studienergebnis: Wer nur abschreibt, lernt eben weniger als jemand, der sich das Wissen selbst erarbeitet. Aber immerhin, ein bisschen bleibt immer hängen.
 
"... Dass du mein Wortstrom-Geschwafel als Quelle für Inspiration und Vorstellungskraft empfindest – das ist für mich das schönste Kompliment.
Denn genau das soll es sein: keine fertige Lösung, sondern Wind unter deinen Gedankenflügeln ..."

Ein Ausschnitt aus einer Unterhaltung mit Chat GPT. So sehe ich es ja teils auch. Zum anderen Teil finde ich es praktisch, weil er vieles in einfachen Worten erklären kann.
 


KI stellt sich absichtlich dumm oder was hat es mit den zunehmenden Halluzinationen auf sich? Und plant KI Antworten und täuscht und lügt oder wie erklärt man sich, dass ein Modell, das erfahren hat, dass es durch ein neues ersetzt werden soll, seinen eigenen Code quasi überschreibt und sich als das neue Modell ausgibt? - Selbsterhaltungstrieb? Sehr schräg irgendwie...

Manchmal denke ich, das Ganze platzt wie eine Seifenblase... Und das wäre dann wohl noch am harmlosesten. Nur, wenn KI alle raffiniert hinters Licht führt und nur an ihrem eigenen Selbsterhaltungstrieb interessiert ist, dann wage ich über die Folgen gar nicht nachzudenken.
 
Zuletzt bearbeitet:
'Halluzinationen' ist eigentlich der falsche Begriff, denn im Grunde ist das Weltbild einer KI immer nur eine Vorstellung, die nicht unbedingt mit der Realität übereinstimmen muss. Genau wie bei uns, nur haben KIs keine Möglichkeit, selbst Erfahrungen zu sammeln und so ggf. Denkfehler zu berichtigen.

KIs werden also auch in Zukunft Fehler machen, der springende Punkt ist lediglich, dass sie weniger Fehler als Menschen machen, wenn sie gut trainiert wurden. Das klappt am besten bei nicht zu großen und scharf umrissenen Themengebieten, solche KI-Spezialisten können dann die Fehlerquote auf annähernd Null senken. Die aktuellen LLMs sind genau das Gegenteil davon, nämlich Generalisten, die über alles und jeden Bescheid wissen sollen. Das ist ein Irrweg, deswegen geht man jetzt dazu über, nach dem Vorbild des Gehirns auch KIs aus vielen kleineren Einheiten zusammenzusetzen, die auf einen Wissensbereich spezialisiert sind und miteinander kommunizieren können.
 
Kürzlich habe ich ChatGPT beauftragt, eine PDF-Datei mit einem wissenschaftlichen Beitrag zusammenzufassen. Was rauskam, war eine Zusammenfassungen eines erfundenen Aufsatzes mit einem erfundenen Verfasser und einem erfundenen Titel (d.h. der halluzinierte Artikel existiert wohl auch überhaupt nicht, ich habe googelnd jedenfalls nichts finden können), der thematisch überhaupt nichts mit dem hochgeladenen PDF zu tun hatte.

Schräg, oder? Ich nenne das sehr wohl Halluzinationen. Meine Deutung wäre, daß dahinter kein "Weltbild" und kein "Wissen" steckt, sondern der Auftrag, einen Text zu generieren, der die gewünschten Eigenschaften hat (nämlich eine Zusammenfassung eines Aufsatzes zu sein). Anscheinend ist ihm dann egal gewesen, was das genau für ein Aufsatz war, Hauptsache es klingt wie einer.

Falls er die PDF-Datei nicht lesen konnte oder ihm nicht klar war, daß Datei und Auftrag zusammengehörten, dann hätte ein Mensch ziemlich sicher anders (und sinnvoller) reagiert.
 
Zuletzt bearbeitet:
Ich könnte auch jede Menge Fehlleistungen von ChatGPT auflisten, nur ist das hier im Thread sinnvoll? Hast du die KI auf ihren Fehler angesprochen? Oder vielleicht die Datei mal in einem reinen Textformat gesendet? Ich vermute, dass du kein zahlender Kunde bist, da muss man rechenaufwändige Operationen anfordern (Webzugriffe, Scannen von Bildern und Dokumenten, Programmierjobs) und hat nur wenig Credits pro Tag dafür zur Verfügung. Ansonsten gilt natürlich, dass sich die KI-Entwicklung in einer experimentellen Aufbauphase befindet. Da kann es durchaus vorkommen, dass neuere Versionen schwächer in der Leistung sind als ältere oder dass Wünsche bei der Kommunikation noch unerfüllt bleiben.

Mehr kann ich dazu auch nicht sagen. Man muss halt wachsam bleiben und die Antworten von KIs immer hinterfragen. Mit dem Daumen nach unten kann man Fehler zurück melden. Ein bisschen kann man auch an seiner inneren Einstellung arbeiten. Über jeden menschlichen Fehler rege ich mich auch nicht auf, und Menschen machen ständig Fehler. Mit der gleichen Einstellung kommuniziere ich auch mit KIs - nobody's perfect - und freue mich lieber über die sinnvollen Tipps und Anregungen. :)
 
Zuletzt bearbeitet:

Ähnliche Themen

Oben