Neue Rubrik „Künstliche Intelligenz“?

Themenstarter
Beitritt
10.01.04
Beiträge
73.725
Das Thema „KI“ nimmt immer mehr Raum ein und entwickelt sich ständig weiter.
Wie wäre es mit einer eigenen Rubrik dafür?

Grüsse,
Oregano
 
Das könnte ja nur eine Unterrubrik von Nachdenken sein; ob wir dies realisieren wollen, müssten wir im Team besprechen. Ich leite es mal weiter...

Schönen Feiertag und
 
mh, Kate: ich finde, die Rubrik „Nachdenken“ eigentlich nicht so geeignet für eine neue KI-Rubrik. Denn da geht es ja um viel mehr: Techniken, Kritik, Ergebnisse zu Fragen, Bilder ...

Wie wäre es denn mit „Soziales Umfeld“ oder auch „Kreativität“?

Grüsse,
Oregano
 
Du bist Dir offenbar auch noch nicht ganz klar, welchen Fokus Du Dir dabei vorstellst - das geht uns ähnlich. Im Gesundheits-Bereich des Forums würde moderiert werden und dabei auch auf OTs geachtet. In Kreativität dagegen ist (fast) alles erlaubt.

Bis jetzt haben wir noch nicht beschlossen, eine solche Rubrik zu eröffnen - ich gebe aber Deine Gedanken mal weiter.
 
Ich sehe ein riesiges Potential in der Untersuchung und Auswertung von Kranken durch KI.
Da schreiben auf jeden Fall die Helmholtz-Institute:

 
ich finde, die Rubrik „Nachdenken“ eigentlich nicht so geeignet für eine neue KI-Rubrik. Denn da geht es ja um viel mehr: Techniken, Kritik, Ergebnisse zu Fragen, Bilder ...

Das Thema KI ist so umfassend und wichtig, dass man es gar nicht isoliert vom Rest betrachten kann. Ich meine daher, dass man es doch nicht in einer eigenen Rubrik behandeln sollte. Neue medizinische KI-Verfahren und Fortschritte können in den bereits vorhandenen, passenden Ordnern diskutiert werden, Pro & Kontra und kreative Anwendungen im unmoderierten Bereich.

Ich bemühe mich gerade, wenigstens eine Überblick im Medienbereich (Texte, Videos, Musik) zu bekommen, aber die Entwicklung der KI ist derart explosionsartig, dass das kaum möglich erscheint.
 
Wuhu,
... Ich meine daher, dass man es doch nicht in einer eigenen Rubrik behandeln sollte. Neue medizinische KI-Verfahren und Fortschritte können in den bereits vorhandenen, passenden Ordnern diskutiert werden, Pro & Kontra und kreative Anwendungen im unmoderierten Bereich...

hier die von Dir eröffneten Threads dazu verlinkt:


KI: Kreative Bilder


KI: Kreative Texte und Gedichte


KI: Kreative Videos
 
Zumindest sollten wir uns alle damit beschäftigen

Tu das. :cool: Wissen ist Macht und schützt vor diffusen Ängsten.

Eine KI kann alles Mögliche plappern, wenn sie es irgendwo aufgeschnappt hat. Aus diesem Grund werden KIs nicht mehr mit Beiträgen aus Internetforen trainiert, damit hat man nämlich sehr schlechte Erfahrungen gemacht.
 
Weil der Aspekt für mich gerade im Thema "Schwerwiegende Nebenwirkungen der Corona-Impfstoffe bis hin zu Todesfällen" aufgepoppt ist:
Ich würde vorschlagen (und hatte das eigentlich auch für selbstverständlich gehalten) dass in Themen außerhalb dieses KI-Bereichs eine direkte Übernahme von KI-generierten Texten zur Argumentation nicht verwendet wird und werden darf.

Wenn das in einem Forum wie diesem einreißt, kann man das m.E. früher oder später auch dicht machen - dann wird es inhaltlich zukünftig nicht mehr besser/anders sein als irgendwelche Boulevardblätter, die ihre Gesundheitsseiten dann ebenfalls KI-generiert erstellen.

KI erzeugt nach meiner Erfahrung eher häufig fragwürdige, unvollständig und auch falsche Aussagen. Die werden dann zwar von der KI meist nach gezielter Rückfrage auch korrigiert - das setzt aber schon einen gewissen Wissensstand beim Benutzer voraus.

Ich selbst verwende KI auch schon mal gerne - aber fast immer um grobe Hinweise zu erhalten und meine darauf folgende Recherche zielgerichteter machen zu können.

Ich würde auch vorschlagen, die Nutzungsbedingungen entsprechend anzupassen.
 
Natürlich haben wir darüber schon diskutiert im Team. Der bisherige Stand ist, dass wir die Verwendung von KI nicht verhindern können, aber diese Texte in jedem Falle gekennzeichnet werden müssen. Dabei stellt sich natürlich das Problem, KI-Text(teil)e überhaupt erstmal zu erkennen. Da kann ich an Euch nur appellieren, genauso wie ich es in Bezug auf andere Quellen auch tue.

Weitere Gedanken von mir - im Team so nicht besprochen:
- Ich finde es hilfreich, vorsichtshalber in einem solchen Beitrag auf die Grenzen von KI hinzuweisen.
- KI-Texte sollten eher die Ausnahme sein bzw. vom Umfang her klein bleiben (Verhältnismäßigkeit).
- Auch sonst werden hier beliebige Quellen verwendet, nicht immer gekennzeichnet und relativiert, die ebenso falsche Aussagen enthalten (können).
 
Natürlich haben wir darüber schon diskutiert im Team. Der bisherige Stand ist, dass wir die Verwendung von KI nicht verhindern können, aber diese Texte in jedem Falle gekennzeichnet werden müssen.
es bleibt dann natürlich das Problem vor allem bei sehr langen Textübernahmen von der KI, dass auch trotz einer Kennzeichnung als "KI-Text" sich die Argumentation u.U. vorwiegend oder fast ausschließlich auf den KI-Text beschränkt.
Das sehe ich z.B. bei dem von mir gemeldeten Beitrag von heute so.

Auf die Spitze getrieben wird dann irgendwann dieses Forum entweder überflüssig oder m.E. fragwürdig: Wenn Antworten auf Fragen durch eine KI erzeugt werden, kann man auch direkt eine KI befragen - oder per Script die generierte Antwort automatisiert hier einstellen.

Ansonsten nimmt man halt in einem Thread, in dem ein KI-Text als valide Aussage verbreitet wird, in Kauf, dass es dazu von anderen ständig Hinweise gibt, dass man einer solchen Argumentation prinzipiell erst mal nicht umfänglich trauen sollte, da eben KI-generiert.

Das kann dann an der Stelle auch zum Aufblasen von Themen führen.
 
Zuletzt bearbeitet:
Problem vor allem bei sehr langen Textübernahmen von der KI, dass auch trotz einer Kennzeichnung als "KI-Text" sich die Argumentation u.U. vorwiegend oder fast ausschließlich auf den KI-Text beschränkt.
Das sehe ich bei anderen Zitaten nicht anders und es gibt zunehmend (im Gegensatz zu früher) Beiträge, die fast nur aus teils sehr Zitaten bestehen. (Ich stelle hier nicht auf Urheberrechtsfragen ab, die Ihr ja immer vorher klärt, sondern nur auf die Folgen für die Diskussion.)

Auf die Spitze getrieben wird dann irgendwann dieses Forum entweder überflüssig...
Na - hoffentlich nicht. Wir haben jedenfalls nicht vor, das auf die Spitze zu treiben.

Ansonsten hat nimmt man in einem Thread, in dem ein KI-Text als valide Aussage verbreitet wird, in Kauf, dass es dazu von anderen ständig Hinweise gibt, dass man einer solchen Argumentation prinzipiell erst mal nicht umfänglich trauen sollte, da eben KI-generiert.
Ich hatte darum gebeten bzw. es als sinnvoll bezeichnet, das gleich in den Beitrag, der KI verwendet, mit hinein zu nehmen. Und was das Vertrauen betrifft, sehe ich wieder die Paralle zu anderen Zitaten/Quellen.

Der bisherige Stand ist,...
Das besagt natürlich auch, dass wir darüber im Gespräch bleiben, denn die Sache selbst entwickelt sich ja auch gerade erst. Dass wir hier keine KI als User (Bot) haben wollen, ist klar.
 
In puncto "Halluzinieren" findet man gerade ein schönes Beispiel im yamedo-Forum:

Die Quelle
  • In einer Studie von Garland et al. (2014) wurde gezeigt, dass ein Vitamin D-Spiegel von 80 ng/ml als optimal für die Prävention von Krebs und Herz-Kreislauf-Erkrankungen angesehen wird. Die Forscher argumentieren, dass dieser Wert mit der vollständigen Realisation aller gesundheitsförderlichen Funktionen von Vitamin D korreliert.
  • Referenz:
    Garland, C. F., Kim, J., Mohr, S. B., et al. (2014). "Vitamin D supplementation and cancer incidence in a randomized trial." American Journal of Public Health, 104(5), 779-787.
    DOI: 10.2105/AJPH.2013.301657ˍ
ist von ChatGPT wohl frei erfunden worden.
Der Link führt auf eine Studie mit dem Titel "Secondhand smoke exposure among young adult sexual minority bar and nightclub patrons". ;)
Gibt man "DOI: 10.2105/AJPH.2013.301657" direkt in eine Suchmaschine ein, kommt man nirgendwohin, weil die Zahl wohl frei erfunden ist. Die Jahreszahl (2013) stimmt auch nicht mit dem angeblichen Titel zusammen, der 2014 erschienen sein soll.
Sucht man das Heft 2014, Nr. 104, Heft 5, welches tatsächlich existiert, findet man keine Seiten 779-787, aber auf den Seiten 775-780 den Artikel "Geography Should Not Be Destiny: Focusing HIV/AIDS Implementation Research and Programs on Microepidemics in US Neighborhoods".

Es gibt auch keine Suchmaschinenergebnisse bei einer Suche nach dem Titel "Vitamin D supplementation and cancer incidence in a randomized trial".
 
Nun hat mich interessiert, ob ChatGPT solche Fehler selbst finden kann.

Ich habe gefragt:
Bitte überprüfe, ob folgende Quellenangabe korrekt ist: In einer Studie von Garland et al. (2014) wurde gezeigt, dass ein Vitamin D-Spiegel von 80 ng/ml als optimal für die Prävention von Krebs und Herz-Kreislauf-Erkrankungen angesehen wird. Die Forscher argumentieren, dass dieser Wert mit der vollständigen Realisation aller gesundheitsförderlichen Funktionen von Vitamin D korreliert. Referenz: Garland, C. F., Kim, J., Mohr, S. B., et al. (2014). "Vitamin D supplementation and cancer incidence in a randomized trial." American Journal of Public Health, 104(5), 779-787. DOI: 10.2105/AJPH.2013.301657ˍ
Völlig nutzlose Antwort:
Die Quellenangabe scheint auf den ersten Blick korrekt und vollständig zu sein. Allerdings ist es wichtig, den Inhalt der Studie mit der angegebenen Aussage zu überprüfen, um sicherzustellen, dass diese präzise wiedergegeben wird. Hier sind einige Punkte, die auffallen und überprüft werden sollten:

1. **Inhaltliche Überprüfung der Aussage**:
- Wurde in der Studie tatsächlich ein Vitamin-D-Spiegel von 80 ng/ml als optimal angesehen?
- Handelt es sich dabei um eine direkte Schlussfolgerung der Studie oder um eine Interpretation der Ergebnisse? Studien zum Thema Vitamin D argumentieren oft vorsichtiger, besonders wenn es um optimale Zielwerte geht.

2. **Autorenliste**:
- Es wird „et al.“ verwendet, was korrekt ist, wenn die vollständige Liste im Literaturverzeichnis angegeben wird. Sollte dies die einzige Referenz sein, könnten alle Autorennamen genannt werden, sofern sie wenige genug sind.

3. **Zeitschrift und DOI**:
- Die Angabe zur Zeitschrift *American Journal of Public Health* und der DOI ist korrekt formatiert.

### Optimierte Version (falls stilistisch angepasst werden soll):
Garland, C. F., Kim, J., Mohr, S. B., et al. (2014). Vitamin D supplementation and cancer incidence in a randomized trial. *American Journal of Public Health, 104*(5), 779–787. https://doi.org/10.2105/AJPH.2013.301657

### Vorgehen zur Überprüfung:
- **Lesen der Originalstudie**:** Überprüfen, ob die Aussage zum 80-ng/ml-Wert tatsächlich aus der Studie stammt und wie die Autoren dies begründet haben.
- **Vergleichen mit weiteren Quellen**:** Diese Aussage könnte aus einem anderen Artikel stammen und nicht exakt in der genannten Studie stehen.

Falls du Zugriff auf die Studie hast, kann ich beim Verifizieren helfen!
Meine nächste Frage:
Die Zeitschrift ist OpenAccess, du kannst also einfach darauf zugreifen und überprüfen, ob der Artikel existiert!
Es hat dann angeblich aufs Internet zugegriffen: Antwort:
Die Studie von Garland et al. (2014), die in der angegebenen Referenz zitiert wird, scheint nicht in der *American Journal of Public Health* veröffentlicht worden zu sein. Stattdessen handelt es sich möglicherweise um eine Verwechslung oder eine ungenaue Quellenangabe. Es konnten keine Belege dafür gefunden werden, dass der beschriebene Artikel tatsächlich in dieser Zeitschrift existiert.

Es ist möglich, dass die Aussage bezüglich des optimalen Vitamin-D-Spiegels von 80 ng/ml aus einer anderen Quelle stammt. Beispielsweise zeigen einige Meta-Analysen und Modellierungsstudien Zusammenhänge zwischen Vitamin-D-Spiegeln und reduzierter Krebsinzidenz, sie sind jedoch zurückhaltend bei der Definition eines „optimalen“ Wertes, insbesondere so hoher Werte wie 80 ng/ml, die häufig über dem empfohlenen Bereich liegen【12】【13】.

Ich empfehle, die Originalstudie oder verwandte Literatur zu überprüfen, um die Quelle der Aussage zu bestätigen oder alternative Referenzen heranzuziehen. Wenn du weitere Unterstützung benötigst, lass es mich wissen!
 
Hast Du ähnliche Tests mal mit perplexity.ai gemacht? Für medizinische Fragen nutze ich inzwischen eher diese KI - die gibt wenigstens die Quellen für ihre (evtl. fragwürdigen oder Falsch-)Aussagen an.
 
Ich würde ChatGPT auch in der ersten Anfrage auf seinen Fehler aufmerksam machen, so hat es eine Chance, seinen Fehler zu korrigieren.

Zum Halluzinieren habe ich gelesen, dass dieses Problem nicht durch noch größere KIs gelöst werden kann. Im Gegenteil scheint es dann eher schlimmer zu werden. Offenbar gibt es für neuronale Netze eine optimale Größe, wo sie die wenigsten Fehler machen, mehr bringt dann nicht mehr. Mit jeder zusätzlichen Neuronenschicht steigt der Grad der Abstraktion und damit geht auch immer mehr die Bodenhaftung verloren.

Beim Menschen ist es auch nicht anders, mit der Großhirnrinde habe wir einen sehr umfangreichen und frei programmierbaren Hirnbereich zur Verfügung, das macht uns ebenfalls zu Halluzinierungsmeistern. Große Teile unseres Weltbilds sind im Grunde frei erfunden und können nicht mit naturwissenschaftlichen Methoden bewiesen werden.

"Eine Lüge muss nur oft genug wiederholt werden. Dann wird sie geglaubt." (Goebbels) - das ist nichts anderes als das Training eines neuronalen Netzes.
 
Oben