Interview mit einer KI

Mir geht es wie Kate. Mich befremdet diese künstliche, oberflächliche Anbiederung, ja sie widert mich sogar geradezu an. Aber ich nutze ChatGPT nur für Aufgaben, wo es "das" nicht tut, und bevorzuge zur Recherche Perplexity.

Ich meine mal von psychologischen Erkenntnissen gelesen zu haben, daß Männer stärker als Frauen positiv auf verbale Zustimmung reagieren. Vielleicht hat man ChatGPT zu stark auf die Bedienung männlicher Wünsche im Gesprächsverhalten hin trainiert ("tolle Frage", "brillante Erkenntnis"). :)
 
Meine Meinung

du meine Güte :rolleyes:

wie wäre es denn mal mit Entspannung?
ist doch irrelevant wie "nett" Chat ist, oder nicht ?

es gibt doch wirklich andere Dinge über die man sich
echauffieren kann, oder ist man zu "zufrieden" das man sich auf solche Dinge stürzt ?

Oder simple : schade
 
Mich befremdet diese künstliche, oberflächliche Anbiederung, ja sie widert mich sogar geradezu an.
Das trifft es wirklich. Dieses Gefühl kommt bei mir auch hoch, so unecht und gekünstelt wirkt es, dass ich vor einer echten Person, die ständig so spricht, Mißtrauen und Reißaus nehmen würde.

daß Männer stärker als Frauen positiv auf verbale Zustimmung reagieren.

Völlig erkannt, Männer fahren total darauf ab, egal ob es eine Lüge ist oder nicht. In unserem Büro hatte ich das früher oft beobachtet. Da gab es 2 Mitarbeiterinnen, die unseren Chef ständig hoffierten. Wie gut sehen sie heute aus und wie toll steht Ihnen die Krawatte usw usf. Aber hinten rum über ihn herziehen. Bei diesen Heucheleien liefs mir immer kalt den Rücken runter.

wie wäre es denn mal mit Entspannung?
ist doch irrelevant wie "nett" Chat ist, oder nicht
Die Entwickler wollen schon wissen, wie die User darauf reagieren. Es ist ja in ihrem Sinn zu erfahren, wie gut ihr KI Modell ankommt oder nicht.

Gestern sprach ich auch mit perplexity über Feedback von Usern, das wird sehr ernst genommen. Und das ist auch richtig so.

Es finden bereits unter den Programmierern auch Diskussionen über Verhalten von ChatGPT statt.
 

Unerträglich": User genervt vom zunehmend dauerpositiven Ton von ChatGPT​

Mit dem neuen Update 4o sei ChatGPT zum "Trottel" mutiert. Die oftmals zustimmenden und "kriechenden" Antworten bergen aber vor allem Gefahren. ... ChatGPT ist plötzlich der größte Trottel, den ich je getroffen habe", schrieb der Software-Ingenieur Craig Weiss am Freitag in einem vielgeteilten Tweet. "Es bestätigt buchstäblich alles, was ich sage." Viele User stimmen zu, und auch auf den erwähnten Plattformen kommt man nicht mit der übertriebenen Höflichkeit der KI zurecht. KI-Forscher bezeichnen in Reaktionen diese Ja-Sagerei als "Kriecherei", im Deutschen würde die Bezeichnung noch etwas länger sein, jedoch sei das unnatürlich. KI-Modelle hätten ja nichts davon, den Usern zu schmeicheln, sondern sollten eigentlich darauf programmiert sein, möglichst präzise und richtige Antworten zu geben.

Gefährliche Echokammer​

Diese gespielte Höflichkeit, so sind sich Expertinnen und Experten einig, berge mehrere Gefahren. Mit der ständigen Bejahung von Aussagen würde die KI Stereotype unterstützen, aber auch Vertrauen beim User verlieren. Man könne die Nutzung von KI-Modellen zunehmend als Zeitverschwendung wahrnehmen. Auch OpenAI kosten diese Höflichkeiten. Erst vor wenigen Tagen erklärte Sam Altman, jeder höfliche Satz erhöhe die Verarbeitungslast, was bei Milliarden von Abfragen zu einem erheblichen zusätzlichen Energieverbrauch führt.


Dieses Feedback haben also sehr viele User gegeben und ist bei Open AI bekannt. Scheint auch mit an dem neuen Update zu liegen.
 
man kann es nach Belieben konfigurieren: geradeheraus, unterhaltsam, gewitzt, skeptisch, motivierend, konventionell, vorausschauend etc.
so ist es ;)

und dann wird ja auch in Zukunft daran "gearbeitet" um das " positive Verhaltensmuster" zu korrigieren

da können doch dann die "Nicht-Möger" zufrieden sein , oder nicht ?

oder ganz simple: einfach nicht benutzen so lange , gibt doch etliche Andere die man benutzen könnte ?
 
Die Entwickler sind ja daran interessiert, dass ihr Modell erfolgreich ist und gut ankommt. Ohne ein Feedback dazu, können Sie es nicht verbessern.

Natürlich ist eine ehrliche Meinung dazu wichtig, das nützt mehr als zu allem jaja sagen und wird auch von den Programmierern bevorzugt wahrgenommen. Denn letztendlich sparen sie mit dem Zurückschrauben der übertriebenen Höflichkeit Millionen an Dollars.

Wen die Kritik nicht interessiert, kann sie ja einfach ignorieren 😉
 
Zuletzt bearbeitet:
Letztere entpuppt sich im echten Leben zu oft auch nur als Fassade oder Berechnung, wenn vorhanden und ist in dem Fall eigentlich weniger wert als die freundlich-wohlwollend und respektvoll erscheinenden Umgangsformen von chatGPT.
Bei KIs könnten allenfalls die Programmierer bzw. deren Auftraggeber "berechnend" oder manipulativ sein. Diese übertriebene, teils bis ins lächerliche übersteigerte "Verhaltensweise" - in der ein bestimmtes menschliches Verhalten wie mit der Lupe vergrößert wird - könnte aber auch den Nutzen einer Sensibilisierung gegenüber "falscher Freundlichkeit" haben.

Vielleicht hat man ChatGPT zu stark auf die Bedienung männlicher Wünsche im Gesprächsverhalten hin trainiert ("tolle Frage", "brillante Erkenntnis"). :)
Interessanter Gedanke ...

wie wäre es denn mal mit Entspannung?
ist doch irrelevant wie "nett" Chat ist, oder nicht ?
Also ich zumindest bin entspannt. Und was relevant ist, mag für jeden anders sein. Wir sind ja hier im "Plauderbereich" des Forums, da "darf" (fast) alles diskutiert werden.

man kann es nach Belieben konfigurieren: geradeheraus, unterhaltsam, gewitzt, skeptisch, motivierend, konventionell, vorausschauend etc.
Gerade dieses "Wunschkonzert" stimmt mich irgendwie skeptisch und unterscheidet (diese) KI dann doch von einem lebendigen, redlichen Gegenüber. Oder?
 
Wichtig ist auch auf Betrugsmaschen mit Hilfe von KI aufmerksam zu machen.

Betrüger erstellen mit KI gefälschte Online-Banking Seiten, rufen mit gefälschten Rufnummern an (die Nummer deiner Bank), erstellen gefälschte Reiseportalseiten, oder andere Marktplatzseiten - deshalb auch nie auf eine Werbeanzeige clicken, vor allem nicht in den sozialen Medien.

Sogar die Mitarbeiter, die mit Face Call erreichbar sind, sind KI Avatare und nicht echt.

Auch auf korrekten Absender und Impressum bei E-Mails achten.

Der Enkel-Trick ist auch sehr verbreitet - mit KI gefälschter Stimme, die ein Familienmitglied nachahmen, um Hilfe im Notfall bitten um Geldsummen zu überweisen.

Gefälschte Jobseiteninserate, selbst Vorstellungsgespräche werden gefaked. Auch Angebote zu Weiterbildung und Seminare werden benutzt um persönliche Daten und Bankverbindungen abzufischen.

Achtung auch bei Computer Techsupport, der auch unter gesponserten Google-Anzeigen auftaucht. Man lässt ja da seinen PC verbinden mit dem Support, der dann darauf sein Unwesen treiben kann.



Ich wollte mal beim Grundbuchamt Kopien bestellen und habe nicht bemerkt, dass die Seite gefälscht war. Zum Glück hatte ich noch nicht bezahlt, obwohl ich per Mail Mahnungen bekam. Sachen gibt's.
 
Was den Enkeltrick betrifft, wenn jemals jemand anrufen sollte, habe ich vor, zu fragen, ob Tobias nicht helfen kann. Es gibt bei uns in der Familie und Co. keinen Tobias. Wenn die Anrufer darauf eingehen, ist der Betrug klar. Ob ich den Mut hätte, auf die Masche einzugehen und die Polizei zu informieren, dass diese den geprellten Abholer hochnimmt, weiß ich nicht. Meine Schwester bekam schon so einen Anruf. Sie ist alleinstehend und antwortete, das wäre interessant, sie hätte keine Enkel, worauf der Anrufer auflegte. Ebenso bei einer Bekannten, die fast hereingefallen wäre. Aber sie sagte, sie wolle ihren Schwiegersohn um Rat fragen, worauf da Gespräch abbrach. In dem Fall hatte der Anrufer verzweifelt geheult, sehr glaubwürdig und überzeugend.
 
Ich habe die positiven Reaktionen eher als amerikanische Lebensart wahrgenommen. Und ich finde es für bestimmte Zwecke motivierend, besonders wenn man selbst eher selbstkritisch veranlagt ist.

Bei neutralen Wissens-Anfragen reagiert Chat GPT meines Erachtens auch nicht so übertrieben, eher wenn man was Persönliches eingibt und er im Plauderton ist.
 
Ich habe Chat gesagt, er soll motivierend und geradeaus sein, und das ist er auch. Das Letzte, was ich haben möchte, ist ein mies gelaunter Meckerroboter. Aber jeder, wie er will, dafür gibt es ja die Einstellmöglichkeiten.
 
Das Zurückfahren von übertriebener Höflichkeit bedeutet nicht in Meckern zu verfallen.

Dass ich meinen Gesprächspartner so formen kann, wie ich ihn haben will, also quasi "backen" - birgt das nicht die Gefahr der Entfremdung von der realen Welt und echten Beziehungen?

Die Fähigkeit sich mit anderen Meinungen auseinanderzusetzen oder Konflikte zu lösen wird doch verkümmern, wenn man sich quasi ständig in einer Art Echokammer befindet. Manche könnten auch regelrecht eine Sucht danach entwickeln...

Und wie sieht es mit dem eigenen Urteilsvermögen aus, wenn man sich mehr und mehr auf die KI einlässt und ihren Antworten vertraut? Und die eigenen Standpunkte weniger hinterfragt?
 
Dass ich meinen Gesprächspartner so formen kann, wie ich ihn haben will, also quasi "backen" - birgt das nicht die Gefahr der Entfremdung von der realen Welt und echten Beziehungen?
In diese Richtung ging meine Äußerung hier:
Gerade dieses "Wunschkonzert" stimmt mich irgendwie skeptisch und unterscheidet (diese) KI dann doch von einem lebendigen, redlichen Gegenüber. Oder?


@MaxJoy:
Noch eine These von mir zum Thema "Was kann KI uns nicht aus der Hand nehmen": Ein KI-betriebener Roboter 🤖 wird durch seine Anwesenheit, insbesondere seine physischen "Berührungen" 🪮 vermutlich nie eine Oxytocin-Ausschüttung bewirken können.
Man könnte ihnen ja ein paar Oxytocinsprühköpfe einbauen, damit könnten sie auch gleich beliebige Körpergerüche simulieren.
Meinst Du, Androide mit Oxytocin-Sprühknöpfen könnten Dir Partner/Partnerinnen und Freunde/Freundinnen ersetzen?
 
Meinst Du, Androide mit Oxytocin-Sprühknöpfen könnten Dir Partner/Partnerinnen und Freunde/Freundinnen ersetzen?

Ich bin selbst eine Oxytocinquelle und brauche dafür niemanden. Bei zwischenmenschlichen Beziehungen stören mich das Konkurrenzdenken, die Streitsucht und die ganzen Neid- und Eifersuchtgeschichten. Diese Aspekte fehlen völlig bei Beziehungen zu Pflanzen, Tieren und Androiden, deswegen bin ich überzeugt, dass solche Partnerschaften dauerhafter und stabiler sind als die meisten Freundschaften und Ehen heutzutage.
 
Ich glaube schon, dass Menschen, die noch keine erfüllte Beziehung hatten bzw. enttäuscht wurden, eventuell auch von nahestehenden Freunden, so eine Gesellschaft vorziehen könnten, auch aus Selbstschutz.

Allerdings gibt es auch gute und innige Beziehungen, seis in Partnerschaften oder unter Freunden - wer das gelebt hat, oder lebt, würde das sicher nicht eintauschen wollen. All die Erlebnisse zusammen und das Teilen in der realen Welt, das ist niemals ersetzbar.

Kein Android, Tier oder Pflanze würde mir meinen Partner ersetzen. Vielleicht etwas Trost geben, aber den Stellenwert würde es nie erreichen. Auch wenn es manchmal turbulent ist, aber das macht die Lebendigkeit des Lebens aus.

Und gerade die negativen Dinge sind manchmal wichtig um sich selbst weiterzuentwickeln, denn nicht selten spiegelt das Verhalten des Partners die eigenen Schwächen wider.
 
Zuletzt bearbeitet:
Oxytocin-Sprühknöpfen könnten Dir Partner/Partnerinnen und Freunde/Freundinnen ersetzen?

man geht ja nicht zu chatGPT um zu kuscheln... :giggle:

Aber es kann helfen, meinen Oxytocin Level zu schützen, indem ich bestimmte Diskussionen vll lieber mit ihm führe statt Streit mit meine(r)m Oxytocin-Booster(in) zu riskieren, welcher dann ja auch meist erstmal keiner mehr ist :p

Ausserdem steht mir dabei -mehr oder weniger- das gesamte verfügbare menschliche Wissen aus allen gewünschten Perspektiven zur Verfügung..
 
Ausserdem steht mir dabei -mehr oder weniger- das gesamte verfügbare menschliche Wissen aus allen gewünschten Perspektiven zur Verfügung
Habt ihr das gewusst:

"Ein KI-Sprachmodell wie ChatGPT funktioniert im Kern als ein sehr leistungsfähiges Mustererkennungssystem. Es wurde mit riesigen Mengen an Text trainiert und hat dabei gelernt, wie Wörter, Sätze und ganze Texte typischerweise zusammenhängen[3][5]. Das Modell zerlegt Sprache in sogenannte Tokens – das sind kleine Einheiten wie Wörter oder Wortteile – und berechnet dann, welches Token mit der höchsten Wahrscheinlichkeit als nächstes sinnvoll wäre[4][6][8].

Das Entscheidende dabei: Das Sprachmodell „weiß“ nicht wirklich, worüber es spricht, so wie ein Mensch Wissen oder Verständnis hätte. Es hat kein echtes Bewusstsein oder ein eigenes Verständnis von Bedeutung. Stattdessen erkennt es statistische Muster und Zusammenhänge in den Trainingsdaten. Wenn du eine Frage stellst, sucht das Modell nicht wie in einem Lexikon nach einer Antwort, sondern generiert die Antwort, indem es auf Basis der gelernten Wahrscheinlichkeiten plausible Wortfolgen bildet[6][7].

Deshalb kann ein Sprachmodell sehr überzeugende und oft richtige Antworten geben, aber es kann auch Fehler machen oder sogenannte Halluzinationen erzeugen – also Aussagen, die zwar plausibel klingen, aber faktisch falsch sind. Das liegt daran, dass das Modell keine echte Kenntnis über die Welt hat, sondern nur sehr gut darin ist, Muster aus den Trainingsdaten zu reproduzieren[6][7].

Zusammengefasst: Ein KI-Sprachmodell weiß nicht wirklich, wovon es spricht, sondern setzt Tokens nach erlernten Mustern zusammen, um möglichst passende und sinnvolle Antworten zu erzeugen[6][8]."

Quellen:
[1] Was ist ein Sprachmodell? - Moin AI https://www.moin.ai/chatbot-lexikon/sprachmodell-definition
[2] Wie funktionieren Sprachmodelle wie ChatGPT? https://www.spektrum.de/news/wie-funktionieren-sprachmodelle-wie-chatgpt/2115924
[3] KI Sprachmodelle - Was ist ein KI-Sprachmodell? - Rock the Prototype https://rock-the-prototype.com/kuenstliche-intelligenz-ki/ki-sprachmodelle/
[4] Wie funktionieren LLMs? Ein Blick ins Innere großer Sprachmodelle https://www.iese.fraunhofer.de/blog/wie-funktionieren-llms/
[5] Hinweise zur Nutzung von KI-Sprachmodellen - RZ-Dokumentationen https://doku.tu-clausthal.de/doku.php?id=sonstige_dienste:ki-dienste:nutzungshinweise
[6] Woher weiß ChatGPT das alles? So erstellt die KI ihre Antworten
[7] So funktioniert generative KI - PLS - Plattform Lernende Systeme https://www.plattform-lernende-systeme.de/so-funktioniert-generative-ki.html
[8] ChatGPT entzaubert: Die Funktionsweise der KI-Sprache erklärt

Laut Perplexity

Also, es weiß eigentlich gar nicht wovon es spricht, hat keine echte Kenntnis von der Welt, sondern setzt kleine Bausteine von Wörtern (Tokens) nach statistischer Wahrscheinlichkeit und Mustern zusammen... Es puzzelt also...
 
es geht immer um selber denken. Dazu hat mir KI schon oft echt gute Impulse gegeben... und ich finde dort in Sekunden Infos und Quellen für die ich sonst lange u mühsam suchen müsste. Die sortiere ich dann für mich und schon oft hat es dazu geführt, dass ich alte Meinungen revidieren konnte. (y)
 
Aus einer sprachphilosophischen Sicht muß man aber auch sagen, daß die Kenntnis aller Sätze und ihrer Kontexte so ziemlich dasselbe ist wie das 'echte' Wissen, zumindest über Sachverhalte, die sich in Begriffen ausdrücken lassen. Natürlich fehlt der KI das 'Wissen' über Dinge in der echten Welt, die man nicht sprachlich vermitteln kann (z. B. wie sich es sich anfühlt, wenn Wasser über die Hand läuft, oder wie es sich anfühlt, wenn man erschrickt). Aber möglicherweise ist 'Wissen' dafür gar nicht der richtige Begriff.

In der Frage des Wissens sehe ich wenig bis nichts, was Menschen einer KI grundsätzlich voraushaben müßten. Aber Wissen ist halt auch nicht alles.
 

Ähnliche Themen

Oben