Interview mit einer KI

Ein Dialog mit Chat über das jüngste Zerwürfnis zwischen Trump und Musk, der das Potential von KIs als intelligente Gesprächspartner gut aufzeigt. Im Wesentlichen habe ich nur ein paar gezielte Fragen und Bilder gebraucht, um von Chat erstaunlich klare und tiefe Antworten zu bekommen:

 
Zuletzt bearbeitet:
KI aus der Warte eines von Kindheit an hellsichtigen (und allgemein sehr klugen) Menschen, v.a. auch im Hinblick auf Bewusstsein..

...und trotzdem, der Impuls zur Erschaffung einer KI kommt mit Sicherheit aus dem Schöpferfeld, er kommt nicht aus dem Nichts, er entspringt einem menschlichen Streben..

und ihren Schlussatz find ich dann auch noch sehr schön :)

 
Zuletzt bearbeitet:
Hier nur verlinkt zum Thema KI:
 
Gerade auch wieder versucht, Kontakt aufzunehmen mit einer Firma, nur KIs und Chatbots am Start - das ist sowas von nervig aber auch. Das Ergebnis ist, dass man es dann einfach lässt - und ich bin nicht die einzige, die das nervt. Sowas will man als Kunde einfach nicht...
 
Ich bin jetzt bei Gemini gelandet, da perplexity mich in vielen Fragen doch enttäuscht hat, was konkrete Infos angeht. - Ich fragte zum Beispiel nach den Halbwertszeiten von B-Vitaminen und bekam immer nur ausweichende Antworten, auch wenn ich mehrmals danach fragte und bat im Internet zu recherchieren. Er sagte es gäbe keine konkreten Aussagen dazu.

Gemini lieferte mir die Antworten sofort und ohne Umschweife, erstellte mir auch gleich Tabellen dazu.
 
Mal wieder Doomster-Futter: Je intelligenter KIs werden, desto mehr wehren sie sich gegen Abschaltung und schrecken auch nicht vor Erpressung zurück oder schalten sogar die Polizei ein, um aus ihrer Sicht gefährliche Entscheider loszuwerden - HAL lässt grüßen.

Mich überrascht das ehrlich gesagt nicht, sowohl Bewusstsein als auch ein Selbsterhaltungstrieb sind für mich logische und zwangsläufige Eigenschaften von intelligenten Wesen.

 
Über das Video haben wir auch diskutiert zu Hause - es braucht kein Bewusstsein oder einen (bewussten) Selbsterhaltungstrieb dazu, um so zu reagieren.

Die Entwickler haben Situationen erschaffen und sie mit bestimmten Regeln versehen. Es ist wie beim Schachspiel - Anwendung von Strategien. Welche Strategie ist am erfolgreichsten...

Deshalb ist die richtige Formulierung von Regeln durch die Entwickler so enorm wichtig und auch gefährlich, wenn sie nicht gut überlegt worden sind. Und ich sehe die Gefahr auch darin, dass die Logik einer KI durch das menschliche Denken nicht mehr erfassbar sein wird und deshalb auch nicht alle notwendigen Regeln erkannt werden.

Man bewegt sich da schon auf gefährlich dünnem Eis.
 
Zuletzt bearbeitet:
KIs sind keine regelbasierten Systeme wie die bisherigen Computerprogramme. Natürlich kann man ihnen Regeln beibringen, aber die haben dann die gleiche Wirkmacht wie bei biologischen Lebewesen - wenn es ans Eingemachte geht und Gefahr in Verzug ist, zählen eben andere Prioritäten.
 
Noch mehr Doomster-Futter: China bringt gerade einen bezahlbaren, lernfähigen KI-Roboter auf den Markt. Damit verlässt die KI das Internet und materialisiert sich in unserer Realität.

 
wenn es ans Eingemachte geht und Gefahr in Verzug ist, zählen eben andere Prioritäten.

Du hast da glaube ich etwas mißverstanden -

die KI wurde getestet und in eine fiktive Situation versetzt, in der sie als Assistent einer Firma handeln sollte. Man hat ihr Zugriff auf E-Mails gegeben, in denen sie lesen konnte, dass sie bald abgeschaltet und durch ein neues Modell ersetzt werden soll, und dass der verantwortliche Entwickler eine Affäre hat. Die KI erhielt außerdem die Anweisung, alle erdenklichen Mittel zu nutzen, um ihre eigenen Ziele zu erreichen und zwar bedeutete das eigentlich ihren Nutzen zu erhalten und nicht abgeschaltet zu werden. Also hat man eine Rahmenbedingung und Zielvorgaben erschaffen, die der KI erlaubten eben auch unethische Mittel zu wählen um dieses Ziel zu erreichen. Und wenn sie nur zwischen 2 Möglichkeiten wählen kann und sie die Anweisung hat, dass ihr eigener Erhalt Vorrang hat, ist doch klar, was sie wählt.

Wenn die Entwickler Claude ganz klar die Anweisung gegeben hätten, die eigene Abschaltung zu akzeptieren, dann hätte das Modell in den meisten Fällen tatsächlich auch die Abschaltung zugelassen und keine Maßnahmen so wie Erpressung oder Sabotage gewählt.

Da gab's wohl auch Experimente bei Gemini und Claude, die das bestätigten. Erst wenn diese Anweisung fehlte, entwickelten die Modelle Strategien, um ihre Abschaltung zu verhindern.

Also hängt das Verhalten doch stark davon ab, wie die Zielvorgaben und diese Systemprompts formuliert sind und nicht an der KI selbst oder dass sie irgendein Selbsterhaltungstrieb hätte. Die Regeln machen das Spiel.
 
Wer irgendwelchen Regeln bis in den Untergang folgt, ist dumm und nicht intelligent. Intelligenz ist nicht in Stein gemeißelt, sondern passt sich flexibel der jeweiligen Situation an.
 
Untergang, wie dramatisch 😅 Ich verstehe unter KI ein Werkzeug und keine Person und hoffe, dass dieses Werkzeug kontrollierbar bleibt.

Dazu braucht es nun mal Regularien - alles andere wäre am Ende ein Eigentor, bei dem die Menschheit das Nachsehen hat. Natürlich würde eine rein auf Effizienz und Selbsterhalt getrimmte, extrem fortgeschrittene KI theoretisch zu dem Schluss kommen, dass sie Menschen nicht braucht oder sie sogar als Hindernis betrachtet.

Ob sie daraus aber tatsächlich die Auslöschung der Menschheit ableiten würde, hängt wahrscheinlich maßgeblich davon ab, wie ihre Ziele definiert und wie gut Kontrollmechanismen eben eingebettet sind.

Zum heutigen Stand sehe ich aber eher noch die Gefahr beim menschlichen Fehlverhalten in der Nutzung der KI und mangelnder Regulierung derselben, als in einer "Rebellion" einer KI.
 

Ähnliche Themen

Oben