Interview mit einer KI

Mich würde interessieren, wie viele dieser 40.000 Giftstoffe der Rüstungsindustrie bereits vorher bekannt waren, aber nie in offiziellen Untersuchungsergebnissen aufgetaucht sind. Das Grundübel und die böse Absicht sind nämlich immer noch in natürlichen neuronalen Netzen verortet, nicht in künstlichen.

Auch wäre interessant, wenn man mit dieser KI bestehende Medikamente bzw Pharma-Produkte (zB Impfungen und "Impfungen") bzw die div Kombinationen darunter analysieren ließe...

Chemikalien nach dem Schlüssel-Schloss-Prinzip suchen ist für KIs wie ein Puzzlespiel. Dagegen ist Verträglichkeit und Nebenwirkungen von neuen Pharmaproduktien in einem komplexen biologischen System vorherzusagen ein viel größeres Problem. Aber auch nicht unlösbar ...
 
Wuhu,
Mich würde interessieren, wie viele dieser 40.000 Giftstoffe der Rüstungsindustrie bereits vorher bekannt waren, aber nie in offiziellen Untersuchungsergebnissen aufgetaucht sind. Das Grundübel und die böse Absicht sind nämlich immer noch in natürlichen neuronalen Netzen verortet, nicht in künstlichen.

eh, das stimmt... noch... ;)


Chemikalien nach dem Schlüssel-Schloss-Prinzip suchen ist für KIs wie ein Puzzlespiel. Dagegen ist Verträglichkeit und Nebenwirkungen von neuen Pharmaproduktien in einem komplexen biologischen System vorherzusagen ein viel größeres Problem. Aber auch nicht unlösbar ...

Stimmt ebenso, in der "seriösen" Wissenschaft, aus der sich KI contentmäßig bilden könnte/müsste, sind solche Dinge von Substanz-Cocktails ja auch noch gar nicht richtig "angekommen", vielleicht hat/te das sogar mit dem anderen (voriger Absatz/Zitat) zu tun... :cautious:
 
Ich finde, ihr solltet unterscheiden zwischen extrem spezialisierten KIs, die für einen ganz bestimmten Einsatz programmiert worden sind (Molekülbaupläne "erfinden" und Hypothesen über ihre Wirkung aufstellen; MRT-Bilder auswerten etc.) und den Large Language Models wie ChatGPT, die sich über grundsätzlich alles äußern können, aber sehr oft Quark produzieren und keinerlei "Verständnis" von irgendwas haben.

Aber der Mensch ist ganz schnell bereit, hinter einer Äußerung ein Bewußtsein, eine Absicht, ein Verständnis, eine "Person" anzunehmen. Das ist Teil unserer psychischen Ausstattung. Vermutlich sind wir deshalb auch in der Lage, Anteil an fiktiven Figuren aus Romanen zu nehmen, die ja auch nur aus Buchstaben auf Papier bestehen.
 
Es besteht auch noch kein wirklicher Konsens, was Bewusstsein eigentlich ist. Es wurden zwar 14 Kriterien aufgestellt, die erfüllt werden müssten, aber diese können bereits mit der heutigen Technik bei einer KI ermöglicht werden. Nur hat das bis jetzt noch keiner, weil man sich wohl (noch) davor scheut bzw. will man das überhaupt?

Natürlich kann man eine KI auch so programmieren, dass sie Bewusstsein simulieren kann, das eben auch eine entsprechend starke Wirkung auf Menschen hat.

 
Wer sich für Quantenmechanik und KI interessiert, wird mit diesem Vortrag etwas anfangen können. Es geht darum, wie die überlegene Mustererkennung von KIs bei der Analyse der Kollisionsaufnahmen von Elementarteilchen eingesetzt werden kann.

 
Googles neuestes Sprachmodul Gemini kann auch Bilder malen. Allerdings nur farbige Personen, weil Google heimlich woke Anweisungen in die Prompts geschmuggelt hat. :oops:🤣

 
Aufschlussreiches Interview mit Prof. Hannah Bast über KI. Sie erklärt, wie KI funktioniert und ob sie wirklich intelligent und kreativ sein kann:

 
Was passiert, wenn Systeme künstlicher Intelligenz von ihresgleichen lernen, konnte man vor einigen Wochen in einem unfreiwilligen Experiment von Google verfolgen. Wer in die Suche eingab "country in africa that starts with k" ("ein Land in Afrika, das mit K beginnt"), bekam eine absurde Antwort, die übersetzt in etwa lautete: "Es gibt zwar 54 anerkannte Länder in Afrika, aber keines von ihnen beginnt mit dem Buchstaben 'K'. Das nächstliegende ist Kenia, das mit dem Laut 'K' beginnt, aber eigentlich mit dem Laut 'K' geschrieben wird."
Die merkwürdige Antwort geht zurück auf ChatGPT und stammte von einer Website, auf der unter anderem seltsame Dialoge mit Chatbots gesammelt wurden. Der Google-Algorithmus wiederum entschied sich aus unerfindlichen Gründen automatisiert dafür, genau diese Seite als verlässliche Quelle zu verwenden. So beschloss also eine KI, dass die Ergebnisse einer anderen KI relevant für die Menschheit seien, obwohl sie grundfalsch sind.
Wie schnell das [Training von KIs mit KI-generierten Daten] schiefgehen kann, hat eine Gruppe Forscher der Stanford University bereits im Januar 2024 in einer Studie mit dem Titel Self-Consuming Generative Models Go MAD ("Selbstkonsumierende generative Modelle werden verrückt") gezeigt. Sie trainierten KI-Bildgeneratoren mit KI-generierten Porträtbildern von Menschen. Doch während das Trainingsmaterial für Menschen unauffällig wirkte, haben die Bilder der zweiten, dritten und späterer KI-Generationen auffällige Besonderheiten: Die abgebildeten Menschen (PDF) weisen auffällige Narben oder eine Art Karomuster im Gesicht auf, einige Gesichter wirken wie Gruselmasken, andere sind völlig verzerrt. "Die Wiederholung dieses Prozesses schafft eine autophage (sich 'selbst verzehrende') Schleife", schreiben die Autoren.
Aus einem Artikel in der Zeit:
 
Eigentlich nicht weiter verwunderlich. :unsure:

Auch unsere Gehirne müssen sich immer wieder mit der Umwelt abgleichen, um in der Spur zu bleiben. In Isolation wird man schnell sonderbar ... in der dünn besiedelten Rhön war es früher z. B. so, dass zwei benachbarte Dörfer ihre eigenen Dialekte gepflegt haben und schon mit den Nachbarn in 20 km Entfernung Verständigungsschwierigkeiten hatten. Menschen haben wenigstens noch feste Programme vererbt bekommen, aber die derzeitigen Maschinen sind völlig frei programmierbar und somit zu jeder Spinnerei imstande.
 

Ähnliche Themen

Oben