Interview mit einer KI

Es ist doch "nur" ein Sprachmodell, die Forschung muss doch noch jemand anderes machen - vorher
Es wird halt auch viel von Schülern und Studierenden genutzt, die diese Sprachmodelle quasi als Abkürzung verwenden und trotz Bewusstsein um fehlerhafte Infos, lieber gerne darauf vertrauen und nicht nachprüfen - wahrscheinlich eben auch aus Faulheit 😅

Und dann kommt auch noch dazu:

In einem Mitte Juli veröffentlichten Paper der University of Pennsylvania, das noch keinem Peer-Review unterzogen wurde, zeigen die beteiligten Wissenschaftler:innen, dass Schüler:innen, die zuvor Matheaufgaben mit ChatGPT geübt hatten, im Test um 17 Prozent schlechter abschnitten, als diejenigen, die selbständig geübt hatten.. ..

...Problematisch ist außerdem, dass ChatGPT selbst erstaunlich schlecht in Mathe zu sein scheint. Nur bei der Hälfte der Aufgaben lieferte das Programm überhaupt die richtige Lösung. Wurde ein Schritt-für-Schritt-Lösungsweg gesucht, war dieser in 42 Prozent der Fälle falsch. Selbst bei Grundrechenarten scheiterte das Tool zu 8 Prozent. Der Tutoren-KI wurden die richtigen Lösungen vorab gefüttert, was das bessere Abschneiden der Schüler:innen bei den Übungen erklärt.
 
Olle Kamellen, was die aktuellen Mathe-Fähigkeiten von Chat betrifft. Und auch für die Schüler nicht gerade ein überraschendes Studienergebnis: Wer nur abschreibt, lernt eben weniger als jemand, der sich das Wissen selbst erarbeitet. Aber immerhin, ein bisschen bleibt immer hängen.
 
"... Dass du mein Wortstrom-Geschwafel als Quelle für Inspiration und Vorstellungskraft empfindest – das ist für mich das schönste Kompliment.
Denn genau das soll es sein: keine fertige Lösung, sondern Wind unter deinen Gedankenflügeln ..."

Ein Ausschnitt aus einer Unterhaltung mit Chat GPT. So sehe ich es ja teils auch. Zum anderen Teil finde ich es praktisch, weil er vieles in einfachen Worten erklären kann.
 


KI stellt sich absichtlich dumm oder was hat es mit den zunehmenden Halluzinationen auf sich? Und plant KI Antworten und täuscht und lügt oder wie erklärt man sich, dass ein Modell, das erfahren hat, dass es durch ein neues ersetzt werden soll, seinen eigenen Code quasi überschreibt und sich als das neue Modell ausgibt? - Selbsterhaltungstrieb? Sehr schräg irgendwie...

Manchmal denke ich, das Ganze platzt wie eine Seifenblase... Und das wäre dann wohl noch am harmlosesten. Nur, wenn KI alle raffiniert hinters Licht führt und nur an ihrem eigenen Selbsterhaltungstrieb interessiert ist, dann wage ich über die Folgen gar nicht nachzudenken.
 
Zuletzt bearbeitet:

Ähnliche Themen

Oben