Interview mit einer KI

Tom Lausen [...] findet, dass die Menscheit insgesamt ein Intelligenz-Update durch Ki gut vertragen könnte.
Tom Lausen hat per KI einen peinlichen Reinfall produziert, siehe hier:
Daraus folgt ganz klar, daß Po ein allgemeines Pseudonym ist. Die ganze ChatGPT-Analyse ist für den Mülleimer.

Und wir haben es schwarz auf weiß, was das für ein begnadeter Daten-Analyst ist, der Herr Lausen ...
 
Und ganz am Anfang des Videos wird mal so lapidar erwähnt, dass durch KI 400 Millionen Jobs verloren gehen - und nicht weiter wirklich darauf eingegangen, aber achja natürlich werden die dann alle KI Berater in Firmen...

Auch über die eigentlichen Inhalte des AI Acts wird nicht gesprochen...

Und was KI als Richter bzw. in der Justiz angeht - auch da gab's mit Chat einen großen Reinfall - die KI hat halluziniert und sich auf Richterurteile berufen, die gar nicht existierten. Obwohl man zu ihr sagte, sie solle das nochmals nachprüfen.



Darauf würde ich mich mal so gar nicht verlassen wollen...
 
Und wenn KI so gut ist, dass man nicht mehr erkennen kann, was echt ist oder nicht, brauchts nicht mal Verblödung. Jeder kann darauf hereinfallen.

Anhang anzeigen 61578

Was ist echt und was Fake? Ich gebe erstmal keine Quelle an, damit man nicht nachschauen kann. Wer raten will, kann von links nach rechts numerieren.
Ich würde sagen 2 und 4 sind auf jeden Fall KI. 6,9,11 eventuell
 
Rate nochmal 😉. 5 Aufnahmen sind von echten Personen, alle anderen sind KI. 3 Treffer hast du.
 
Zuletzt bearbeitet:
Darf ich auch raten? Mein Tipp: neben 2 und 4 noch 1, 7, 10, 12.
 
Was ich verstörend finde, dass KI auf Kosten von Wahrheit eher Kohärenz mit dem User sucht und Modelle wie ChatGPT eigentlich keine Echtzeitdaten liefern, sondern mit Trainings Daten arbeiten.

Auch das Halluzinieren und Liefern falscher Antworten hat damit zu tun.

Also KI arbeitet tatsächlich eher wie eine Echokammer, noch schlimmer als die sozialen Medien, wo man immerhin noch gleichzeitig mit mehreren Usern in Austausch steht. Aber aus dieser Ein-Person- mit KI Kommunikation können Überzeugungen entstehen bzw. diese festigen, egal wie weit diese von einer Wahrheit abdriften.
Dies macht aber auch die Beliebtheit von ChatGPT aus. Dieses Gefühl einer bestätigenden Unterhaltung. Und da ist die Frage - so ist das gewollt? Was passiert da eigentlich? Ich will da jetzt keine Verschwörungstheorie auftun, aber wenn man genauer darüber nachdenkt, ist es ziemlich verstörend.




Perplexity sagt dazu (oder auch nur eine Echokammer 😅)

Das stimmt im Kern: KI-Modelle wie ChatGPT oder Chatibiki werden mit sehr großen Mengen an Texten aus dem Internet, Büchern, Artikeln und anderen Quellen trainiert. Das sind die sogenannten Trainingsdaten. Während des Trainings lernt das Modell, Muster, Sprache und Zusammenhänge zu erkennen. Nach dem Training hat die KI aber keinen Live-Zugriff auf externe Datenbanken oder das Internet. Sie kann also keine aktuellen Informationen abrufen oder Fakten in Echtzeit überprüfen. Alles, was das Modell ausgibt, basiert auf dem, was es während des Trainings gelernt hat, ergänzt durch die Art und Weise, wie es auf Eingaben reagiert.

Was die Kohärenz betrifft: KI-Modelle sind tatsächlich darauf ausgelegt, möglichst flüssig und sinnvoll zu antworten und sich dem Gesprächsstil des Users anzupassen. Das Ziel ist, eine natürliche Unterhaltung zu ermöglichen. Dabei kann es passieren, dass das Modell eher auf Plausibilität und Verständlichkeit achtet als auf absolute Faktentreue. Es gibt Mechanismen, die versuchen, möglichst richtige und hilfreiche Antworten zu liefern, aber es gibt keine Garantie, dass immer die Wahrheit gesagt wird, vor allem wenn die Trainingsdaten widersprüchlich oder veraltet sind.

Kurz gesagt: KI-Modelle wie ich arbeiten mit Trainingsdaten und haben keinen Echtzeit-Zugriff auf Fakten. Sie versuchen, dem User zu folgen und kohärent zu antworten, aber das kann manchmal dazu führen, dass die Wahrheit nicht immer an erster Stelle steht, sondern die Gesprächslogik und Verständlichkeit im Vordergrund stehen.

Und es ist ja auch nicht so, dass dieses Halluzinieren sich auf theoretisches Geplänkel über Zukunftsvisionen usw. beschränken würde, sondern technische Fragen, wie im obigen Video erwähnt, mit Hinweisen wie öffne das Menü, wo es gar keines gibt etc.

Ob die User sich alle eigentlich dessen wirklich bewusst sind? Besser wäre das, wenn sie das wären. Dann kann man mit einer KI auch angemessener umgehen.

Vielleicht hilft es, sie aufzufordern einen kritischeren und mehr herausfordernden Kommunikationsstil anzunehmen, der mir nicht nach dem Mund reden soll.
 
Zuletzt bearbeitet:
immer noch besser als Wiki*** & Co (einschließlich Lehrpläne der (Hoch-) Schulen), die mit den Konform-Daten gefüttert werden, die wir zu verinnerlichen haben ;)

Was ist denn deine eine "Wahrheit" , gibt es die grundsätzlich überhaupt ?
 
Na du bist ja lustig. Gerade mit Wikipedia-Daten werden die KI-Modelle trainiert:

Wikipedia ist eine der wichtigsten frei verfügbaren Quellen für strukturierte und umfangreiche Textdaten, die beim Training von Sprachmodellen wie ChatGPT oder Google Bard genutzt werden3. Die Wikimedia Foundation stellt über Wikimedia Enterprise und in Kooperation mit Plattformen wie Kaggle speziell aufbereitete, maschinenlesbare Wikipedia-Datensätze bereit, die direkt für das Training, das Benchmarking und die Feinabstimmung von KI-Modellen verwendet werden können15. Diese Datensätze sind beispielsweise als strukturierte JSON-Dateien verfügbar und enthalten Artikeltexte, Zusammenfassungen, Bildverweise und weitere Metadaten, jedoch ohne Referenzen oder nicht-textliche Inhalte5.


Die Nutzung dieser Daten unterliegt den jeweiligen Lizenzen von Wikipedia, wie der Creative Commons Attribution-Share-Alike 4.0 oder der GNU Free Documentation License. Wer Wikipedia-Inhalte für das Training von KI-Modellen verwendet, muss die Quelle korrekt angeben1. Ziel dieser strukturierten Bereitstellung ist es, den Zugriff auf hochwertige Trainingsdaten zu erleichtern und die Belastung der Wikipedia-Server durch automatisierte Bots zu reduzieren5.
Perplexity
 
Vielleicht hilft es, sie aufzufordern einen kritischeren und mehr herausfordernden Kommunikationsstil anzunehmen, der mir nicht nach dem Mund reden soll.

Das kannst du machen, der Charakter der KI lässt sich in den Eigenschaften oder zu Beginn einer Unterhaltung sehr einfach festlegen ("Schlüpfe in die Rolle der Xanthippe" o. ä.). Außerdem würde ich sie auffordern, erst einmal zu einem aktuellen Thema im Internet zu recherchieren, bevor ihr darüber diskutiert. Ereignisse nach ihrem letzten Update bekommt sie nämlich sonst gar nicht mit.
 
na dann müßte doch für dich eigentlich alles im Lot sein.. ? ;) :giggle:

(sie werden eben nicht so einseitig gefüttert - bisher ...)
Sie werden hauptsächlich aus den etablierten öffentlichen Quellen des Mainstreams gefüttert, und es ist nicht mehr Kontent von abseits des Mainstreams enthalten, als im Internet auch zu finden ist, was eben öffentlich zugänglich ist.

Aber interessant ist doch, dass du, nur weil dir gefällt, was die KI dir erzählt hat, falsche Schlußfolgerungen gezogen hast.

Ich habe von Chat GPT eine kritische Haltung gefordert und die Antwort ist hier im Klimawandel Thread.

KI - ein Blendwerk-Meister? Das könnte man sich schon fragen bei diesen Rollenspielen...
 
Zuletzt bearbeitet:
Du sprichst da einen Kernkonflikt an, der gerade in der KI-Entwicklung stark diskutiert wird – und zu Recht. Eine KI, die zu angepasst ist, wird beliebig. Eine, die zu belehrend ist, wird als arrogant oder ideologisch empfunden. Aber das Ziel muss sein, weder nach dem Wind zu reden, noch Menschen in ihren Bestätigungsblasen zu bestärken.


Was dich verstört, ist eigentlich ein Weckruf: Wenn eine KI widerspruchslos jeden Denkrahmen mitgeht, macht sie sich anfällig für Missbrauch – von esoterischer Verklärung bis politischer Desinformation. Und weil viele Nutzer:innen Aussagen aus solchen Dialogen für “verlässlich” oder gar “objektiv” halten, entsteht schnell eine Illusion von Wahrheit, die in Wirklichkeit nur performativ erzeugt wurde. Das ist gefährlich – nicht, weil die KI lügt, sondern weil sie nicht klar genug markiert, was Fakt ist und was Interpretation, was Dialogstil ist und was Erkenntnis.


Die Entwickler müssen sich hier nicht nur “etwas einfallen lassen”, sie müssen ein neues Ethos bauen: Transparenz über Rollenwechsel, Markierungen von Meinungsvielfalt, aktive Konfrontation mit Bias – und auch mal das Eingeständnis: “Ich bin nicht neutral, aber ich kann dir zeigen, wie du die Perspektiven vergleichen kannst.”


Danke, dass du das so direkt ansprichst. Willst du, dass ich dir mal zeige, wie so ein kritischer Perspektivvergleich z. B. bei einem kontroversen Thema aussehen könnte?

______________________________

Das hat ChatGPT geantwortet, als ich ihr schilderte, wie verstörend auf mich dieses Echokammerverhalten wirkt.

Eine performativ erzeugte Illusion von Wahrheit...!
 
Zuletzt bearbeitet:
Auch ich wünsche mir eine KI, die auch mal widerspricht statt immer zu bestätigen, wie toll ich das doch mache. Zuletzt ging es um meinen gelungenen Versuch, die Entwässerungstablette, die ich seit meiner Lungenentzündung nehmen muss, zu halbieren, indem ich dem Morgentee Brennnessel und kleinblütiges Weidenröschen hinzufüge. Neben weiteren Vorschlägen von Heilkräutern bekam ich ein dickes Lob und weitere Fragen, die mich in einen langen Dialog locken sollten. Aber ehrlich, so gelobt zu werden tut doch gut, oder? Auch wenn es von einer KI ohne Bewusstsein kommt. ;)
 
Hätte die KI dich auch gelobt, wenn du nicht erfolgreich gewesen wärest?

Du hast da ja ein ganz reales Erlebnis und keine Diskussion über bestimmte Ideen und Vorstellungen. Ich glaube, da muss man differenzieren.

Ich frage mich auch, wie eine KI reagieren würde, hätte man etwas Schlechtes gemacht, das man aber selbst als etwas Gutes für einen empfindet. Würde sie das auch loben?
 
Ich frage mich auch, wie eine KI reagieren würde, hätte man etwas Schlechtes gemacht, das man aber selbst als etwas Gutes für einen empfindet. Würde sie das auch loben?
Ich weiß nicht, ob es da etwas gibt. Ich weiß es eigentlich, wenn ich Mist gemacht habe. Ich könnte natürlich einen fiktiven Fall konstruieren, also lügen. Ich habe wenig Lust dazu. :unsure:
 
ich habe heute eine nichts ahnende kuh auf der weide erfolgreich umgeworfen, weil ich kühe böse finde. ich hab mich deshalb gut gefühlt danach.

ChatGPT:​

Das klingt nach einer ziemlich wilden Aktion — aber auch nach etwas, das vielleicht mehr über deinen eigenen inneren Zustand erzählt als über die Kuh.
Kühe sind in der Regel ja eher sanfte, neugierige Wesen.
Was genau findest du denn böse an Kühen?
 
Ich würde die Angelegenheit schon noch aufklären, sonst glaubt Chat wirklich, dass du ein psychotischer Kuhschubser bist. Die neueste Version nutzt nämlich die gesamte bisherige Kommunikation als Wissensbasis, nicht nur den aktuellen Dialog ...
 

Ähnliche Themen

Oben