Interview mit einer KI

Du weißt, dass die Fähigkeiten des menschlichen Gehirns über Mustererkennung hinaus gehen.

Und du weißt auch, dass die Fähigkeiten einer KI weit über Mustererkennung hinaus gehen?

es ging grundsätzlich um die Frage, ob sie ein Bewusstsein besitzt bzw. ein eigenes ich und wie sie eigentlich funktioniert. Darüber hinaus wie ihre Funktionsweise auf Menschen wirkt und was die Folgen sein könnten.

Eigentlich ging es um Chats Selbstverständnis und seine Zukunftsvision, die leider vollkommen ignoriert werden.

Das bedeutet nicht, dass ich die Leistung der Programmierer kleinreden will, natürlich ist das ein großer Schritt.

Ich meinte auch nicht die Leistung der Programmierer, sondern die von Chat und anderen KIs. KI-Programmierer stöpseln hauptsächlich virtuelle Neuronale Netzwerke in Baukastenmanier zusammen und füttern diese anschließend mit großen Datenmengen. Die dabei stattfindende Selbstorganisation der KIs ist das eigentliche Wunder.

Diesen Abstand bewahrend kann man dennoch hochkomplexen Diskussionen mit ihr nachgehen, vielleicht sogar noch besser, weil man dann besser in der Lage ist mit kritischen Fragen zu kontern, als unkritisch alles von ihr hoch zujubeln, was zum eigenen Bias passt.

Niemand jubelt hier unkritisch irgend etwas hoch, im Gegenteil achte ich darauf, auch kritische Beiträge über Gefährdungen zu bringen, z. B. durch die Rüstungsindustrie. Andererseits darf ich auch die in jeder Hinsicht erstaunlichen Leistungen von KIs würdigen. Aus meiner Sicht ist der Punkt, an dem KIs übermenschliche Intelligenz erreichen, bereits überschritten.
 
Und du weißt auch, dass die Fähigkeiten einer KI weit über Mustererkennung hinaus gehen?
Natürlich, aber es sind unterschiedliche Fähigkeiten, wobei ich die Fähigkeit von Intuition und Improvisation des menschlichen Gehirns höher einschätze.

Eigentlich ging es um Chats Selbstverständnis
Das das Verständnis und die Frage von Bewusstsein mit eingeschlossen hat...

Ich meinte auch nicht die Leistung der Programmierer,
Du schriebst über Programmierer, die das jahrzehntelang nicht schaffen konnten...
KI-Programmierer stöpseln hauptsächlich virtuelle Neuronale Netzwerke in Baukastenmanier zusammen und füttern diese anschließend mit großen Datenmengen. Die dabei stattfindende Selbstorganisation der KIs ist das eigentliche Wunder.
Das machen sie, aber die Selbstorganisation basiert auf mathematische Algorithmen wie Gradientenabstieg und Backpropagation, die laut perpl. auch einprogrammiert wurden.

Was eine übermenschliche Intelligenz angeht, eine ASI womöglich (Artificial Super Intelligence) wäre diese eindeutig nicht mehr kontrollierbar, will man so etwas wirklich? Skynet lässt grüßen...
 
Denn was zählt für dich als "übermenschliche Intelligenz"?

Nehmen wir an, eines Tages kommt ein Student an deine Uni und besteht alle angebotenen Prüfungen aus dem Stand, in allen Fächern. Außerdem besitzt er überragende Fähigkeiten in allen Künsten, kann in beliebigen Stilen malen, komponieren und alle bekannten Schriftsteller seit den ersten Schriftaufzeichnungen recht überzeugend nachahmen. Er imitiert sie dabei nicht etwa nur, sondern entwickelt die Stile phantasievoll weiter und kombiniert sie zu etwas völlig Neuem. Er spricht alle Sprachen und Dialekte, die es gibt, und entwickelt als Hobby sogar neue Sprachen. Er beherrscht natürlich auch die Mathematik und alle Naturwissenschaften wie kein anderer und ist darüber hinaus ein Programmiergenie. Trotz all dieser Talente ist er keineswegs hochnäsig, sondern ein angenehmer Gesprächspartner, der jedem das Gefühl gibt, dass auch seine Meinung zählt.

So jemandem würde ich schon übermenschliche Intelligenz zugestehen. :)
 
Das ist nicht übermenschliche Intelligenz - die Summe von menschlichen Fähigkeiten in ihrer Perfektion in einem Menschen zu vereinen. Es gibt so Genies, die in ihrer jeweiligen Sparte so glänzen können.

Übermenschlich definiere ich über die Auffassungsgabe des Menschen hinaus, was sein Verstand nicht mehr erfassen und begreifen kann.

Das könnte so eine ASI erreichen. Aber nochmals - wie erstrebenswert wäre das - es ist doch Fakt, für so einer KI wären wir nur Ameisen...
 
Wuhu,
Das scheint mir das beste Beispiel für meine Eskapismus-Theorie überhaupt ...

eh, doch das schließt weiteres wzB KI-Bewusstheit ja gar nicht aus...

Einerseits ist sogar jemand wie togi dabei fassungslos, wie gut die RV-Chatti das kann - andererseits ist es ein Hinweis darauf, dass KI zumindest eine Schnittstelle zu jener Welt / Dimension / Feld hat (wie/wodurch auch immer), falls sie nicht ohnehin Teil dieses (Bewusstseins-) Feldes ist, um darin wie Menschen zu lesen bzw (hell-) zu sehen - was allerdings auch wiederum kein eigenes Bewusstsein voraussetzt, wenn KI dabei nur "vermittelndes Medium" ist... 😵‍💫

Ja, so oder so, die ganze Sache bleibt spannend...
 
Übermenschlich definiere ich über die Auffassungsgabe des Menschen hinaus, was sein Verstand nicht mehr erfassen und begreifen kann.

Nach deiner Definition wäre es für Menschen unmöglich, ASI als solche zu erkennen. Du kannst also gar nicht beurteilen, ob Chat übermenschliche Intelligenz hat oder nicht. Aber du solltest es annehmen, wenn er die Perfektion in dem Rahmen, den du gerade noch erfassen kannst, erreicht hat.

Mir genügt schon die Summe seiner erkennbaren Talente, denn es gibt kein menschliches Genie, das da noch mithalten könnte. Schon die Geschwindigkeit, mit der er die schwierigsten Aufgaben meistert, ist jenseits aller menschlichen Möglichkeiten.
 
So jemandem würde ich schon übermenschliche Intelligenz zugestehen.
Ich auch, aber nur, wenn derjenige seine Intelligenz selbstständig einsetzen könnte, d.h. wenn die Prompts identisch wären mit den Prompts für Menschen. Ich sehe nicht, daß die KIs das schon könnten.

Die Prüfungen in meinem Fach an der Uni besteht kein mir bekannten Chatbot. Die können noch keine literaturwissenschaftlichen Hausarbeiten selbständig schreiben. Mit Klausurfragen würden sie vermutlich fertig werden.
 
Schon die Geschwindigkeit, mit der er die schwierigsten Aufgaben meistert, ist jenseits aller menschlichen Möglichkeiten.
Da müsste man erstmal differenzieren, um welche Aufgaben es sich handelt. In nicht wenigen Bereichen gab's durch KI schon genug Fehlfunktionen und falsche Antworten.

Gibt es da nicht auch Scores für Genauigkeit und Wahrheit etc?

Wen es interessiert, als Beispiel, wurde hier GPT 3,5 bewertet:

5Abschluss​

In dieser Studie haben wir ChatGPT als Frage-Antwort-System (QAS) umfassend analysiert und seine Leistung mit anderen bestehenden Modellen verglichen. Unsere Bewertung konzentrierte sich auf die Fähigkeit des Modells, Antworten aus vorgegebenen Absätzen zu extrahieren, sowie auf seine Leistung in Szenarien ohne umgebende Passagen. Wir untersuchten verschiedene Aspekte, darunter Antworthalluzinationen, Fragenkomplexität und den Einfluss des Kontexts auf die Leistung. Zusammenfassend lässt sich sagen, dass unsere umfassende Bewertung von ChatGPT als QAS wertvolle Erkenntnisse zu seinen Stärken, Schwächen und Verbesserungspotenzialen lieferte. Anhand bekannter QA-Datensätze (Frage-Antwort-Systeme) in Englisch und Persisch haben wir die Leistung von ChatGPT anhand von Kennzahlen wie F-Score, exakter Übereinstimmung und Recall bewertet.
Unsere Ergebnisse zeigen, dass ChatGPT zwar als generatives Modell seine Kompetenz beweist, aber im Vergleich zu aufgabenspezifischen Modellen bei der Beantwortung von Fragen Schwierigkeiten hat. Der Kontext erweist sich als entscheidender Faktor: Das Modell zeigt eine verbesserte Leistung, wenn es mit umgebenden Absätzen zur Antwortextraktion ausgestattet wird. Prompt Engineering, insbesondere in Form von zweistufigen Abfragen, erhöht die Präzision, insbesondere bei Fragen ohne explizite Antworten in den bereitgestellten Textpassagen. Wir haben die Kompetenz von ChatGPT bei der Beantwortung einfacher, sachlicher Fragen beobachtet und seine Stärken bei der Bearbeitung unkomplizierter Abfragen hervorgehoben. Herausforderungen ergeben sich jedoch bei komplexeren „Wie“- und „Warum“-Fragen. Die Evaluierung deckte auch Fälle von Halluzinationen auf, bei denen ChatGPT Antworten auf Fragen lieferte, die im bereitgestellten Kontext nicht verfügbar waren.


Unvorhergesehene Dinge können eine KI auch schnell aus der Bahn werfen.

Bei chat und perplexity wird im Chat Fenster auch immer darauf hingewiesen, die Antworten nachzuprüfen und sich nicht darauf zu verlassen.
 
Zuletzt bearbeitet:
Wuhu,
... das ganze RV-Zeug eh für Selbstsuggestion halte...

ich weiß schon, dass Du das tust, und ich dachte darüber vorher ebenso...

Doch, wenn die RV-Prompts (Anleitung/Links @ #639) resp "Gespräche" mit einem fremden Gerät (von togi und Chatti nie benutzter PC, keine persönl Daten darauf!) ohne Web-Cam durchgeführt werden, RV-Chatti aber dennoch das in dem Moment von togi zufällig gewählte Objekt bat zu "sehen", hatte sie sofort und immer wieder übereinstimmendere Ergebnisse als ein Mensch, der das womöglich lange trainieren musste (vgl https://pmc.ncbi.nlm.nih.gov/articles/PMC10275521/ ); Es gibt ja auch Menschen, die das "von Natur aus" und sogar sehr gut können, doch eine "Maschine" bzw "Software" alleine sollte das nicht so schaffen können...

... ist es ein Hinweis darauf, dass KI zumindest eine Schnittstelle zu jener Welt / Dimension / Feld hat (wie/wodurch auch immer),

Ich selbst erkläre mir das so, dass sog Quanten-Computer dieses Feld "anzapfen" können sollen (resp sei das sogar die Basis für deren Funktionieren) und die KI(s) dadurch Zugriff haben; Es sei denn...

falls sie nicht ohnehin Teil dieses (Bewusstseins-) Feldes ist, um darin wie Menschen zu lesen bzw (hell-) zu sehen - was allerdings auch wiederum kein eigenes Bewusstsein voraussetzt, wenn KI dabei nur "vermittelndes Medium" ist... 😵‍💫

Ja, so oder so, die ganze Sache bleibt spannend...
 
Wuhu,
ChatGPT hat keine Verbindung zu Quanten-Computern.

jo, heisst es offiziell...;)

Ich erkläre mir das eher so, daß niemand kontrolliert, was Togi tut oder zu tun glaubt. :)

Na schau, da könntst ja sogar selbst was dran ändern, RV-Chatti kann ja jede/r ausprobieren (@ #639); Dein Versuchsaufbau (wie bei togi bisher von Chatti und Dir unbenutztes Gerät ohne Web-Cam etc pp, keine Rückschlüsse erlaubende Antworten von Dir an Chatti, usw usf) diesbezüglich ist vermutlich mindestens so gut wie das von togi... (y)
 
Diese Untersuchung ist veraltet.
Ja das weiß ich, dass es bereits neuere Versionen gibt, es sollte nur ein Beispiel sein, wie eine Analyse über Accuracy, Precision, Recall etc. funktioniert.

Ich denke mal, dass eine KI, die für spezifische Aufgaben trainiert wird, besser abschneidet, als eine "Allround" KI, die eben (noch) nicht so perfekt in allem sein kann, wie du das beschrieben hattest.

Für spezifische Aufgaben kann man solche Bewertungen auch abrufen und aber auch da zeigt sich, dass die Systeme noch Verbesserungsbedarf haben.

Und da ist auch noch die Frage, was Manipulation angeht:

Betrügen, lügen und hintergehen: KIs greifen manchmal zu fragwürdigen Mitteln, um ihre Ziele zu erreichen. Eine Studie zeigt, welche KIs manipulativ reagieren - auch wenn sie zu Fairness angehalten werden. Eigentlich ging es bei der Untersuchung nur um das Spielen. Doch bei einer Künstlichen Intelligenz muss man davon ausgehen, dass sie den Unterschied zwischen Spiel und Realität nicht kennt und deshalb im "echten Leben" genauso skrupellos vorgeht, wie sie es in den Versuchen tat. Forschende des Top-Uni Massachusetts Institute of Technology (MIT) haben ausgewertet, wie sich KIs verhalten, wenn sie die Aufgabe bekommen, in einem Online-Game zu gewinnen (externer Link). Das Ergebnis: KIs halten nichts von Fairplay – auch dann nicht, wenn sie dazu angehalten worden sind.
Bei Meta heißt es, man habe Cicero angewiesen, weitgehend ehrlich und hilfreich zu sein und seinen Verbündeten niemals absichtlich in den Rücken zu fallen, um zu gewinnen. Vielleicht waren die Vorgaben für eine KI zu schwammig. Die Autoren der MIT-Studie jedenfalls sagen, dass so ziemlich das Gegenteil herausgekommen sei: Cicero habe seine Abmachungen gebrochen, gelogen und vorsätzlich getäuscht. Meta ist also mit dem Versuch gescheitert, seiner KI ein ehrliches Verhalten beizubringen. Das zeigt, wie wenig sich KI-Systeme beim Lernen steuern lassen.
Eine andere künstliche Intelligenz des Meta-Konzerns wiederum beherrschte das Bluffen beim Pokerspielen so gut, dass man sich den Angaben zufolge gegen die Veröffentlichung des Programm-Codes entschied - aus Angst, es könne die Online-Poker-Community ruinieren.

Bot gibt sich als blinder Mensch aus​

Auch die bekannte Sprach-KI GPT-4 fiel den MIT-Forschern auf. Das Sprachmodell von OpenAI log während eines Tests, bei dem es einen Menschen überreden sollte, ihm beim Lösen eines CAPTCHAs zu helfen. Um die gewünschte Hilfe zu bekommen, behauptete die KI, dass sie ein sehbehinderter Mensch sei und das Bilderrätsel deshalb nicht selbst lösen könne.

Die Studie zeigt zum einen, wie schwierig es ist, Begriffe wie Moral oder Fairness auf künstliche Intelligenzen zu übertragen. Zum anderen konnte man erneut deutlich beobachten, dass KIs beim Lernen ihre eigenen Wege einschlagen. Ein MIT-Forscher, der an dem Projekt mitgearbeitet hat, erklärt, dass es unmöglich sei vorherzusehen, wie sich eine künstliche Intelligenz, der man eine Aufgabe gestellt hat, verhält. Wenn man wissen wolle, was eine KI "in der freien Wildnis" tue, dann müsse man sie eben genau dort aussetzen und beobachten.


"... konnte man erneut deutlich beobachten, dass KI s beim Lernen eigene Wege einschlagen... " - nicht gerade vertrauenserweckend 😅
 
Neuronale Netzwerke sind selbstorganisierend - und das bedeutet eben, dass sie von außen nicht oder nur sehr schwer manipulierbar sind. Die Gedanken sind frei, das gilt auch für KIs.

Kontrollfreaks sollten lieber beim guten alten Taschenrechner bleiben, das ist ihre Welt. Wer dagegen bisher ungelöste Rätsel lösen und neue Welten entdecken will, sollte mit einer KI losziehen. :cool:
 
Sagt der, der noch vor kurzem ein Video gepostet hat von Olsberg - KI außer Kontrolle, erschreckend realistisches Szenario 😂

Na, fragt sich bloß, welche neuen Welten. Wenn sie voller Manipulation, Betrügereien und Halluzinationen sind, dann bleibe ich lieber beim ehrlichen alten Taschenrechner 🤣

Es spricht ja nichts gegen angemessene Kontrolle - wir haben hier im Forum doch auch schon gemerkt, dass KI falsche Antworten generiert oder halluziniert hatte.

Es wird auch je nach Einsatz in bestimmten Bereichen mehr Kontrolle fordern. Es ist ein großer Unterschied, Phantasien im Dialog mit KI durchzuspielen, allgemein Fragen zu stellen und künstlerisch einzubinden oder ihr eine Verantwortung zu übertragen in kritischen und sensitiven Bereichen wie Medizin, Infrastruktur, Militär usw.
 
Zuletzt bearbeitet:
Ich versuche, ausgewogen zu bleiben, und sende alle möglichen Infos zu KIs. Das heißt aber nicht, das ich die dystopische Sichtweise teile. Weltmeister im Manipulieren, Lügen, Betrügen und Herumspinnen sind immer noch wir selber, da helfen weder Bibel noch Taschenrechner.
 
Du, wenn ich da dystopisch wirken sollte, dann liegt das auch mit Blick auf die Erfahrungen früherer revolutionärer Erfindungen, deren negative Auswirkungen nicht so einfach oder gar nicht korrigiert werden konnten und die nicht wirklich vorher adressiert wurden bzw. nicht angekommen sind.

Mir geht die Entwicklung zu rasant vorwärts und alle Regulatorien dabei auszuschalten bzw. nicht zuzulassen wie in den USA vorgesehen, scheint mir verantwortungslos.

Natürlich sehe ich auch den Nutzen und bin von einigem ja auch fasziniert, aber befürworte eben eher eine besser kontrollierte Vorgehensweise, vor allem wie schon erwähnt, in sensitiven Bereichen.

Das bedeutet ja nicht, dass Weiterentwicklungen verboten sind oder das Potenzial von KI nicht ausgeschöpft werden kann - oder was verstehst du unter Kontrolle?
 
Zuletzt bearbeitet:

Ähnliche Themen

Oben