Interview mit einer KI

Die Nachweisgrenze von 0,1 gr sagt nicht, dass das Produkt wirklich komplett laktosefrei ist.

Deshalb wird wohl daran gearbeitet, die Nachweisgrenze auf 0,01 gr zu senken.


Normalerweise hätte ich unter laktosefrei auch null verstanden, also komplett ohne.
 
Die Nachweisgrenze von 0,1 gr sagt nicht, dass das Produkt wirklich komplett laktosefrei ist.

Jetzt purzelt alles durcheinander... Der Wert von <0,1 g/100g ist ein Messwert und keine Nachweisgrenze. Er setzt nur voraus, dass man mindestens das noch messen kann (diese könnte also auch kleiner sein). Und das ist natürlich nicht im Wortsinne laktosefrei, sondern ab dann darf es definitionsgemäß (derzeit) als "laktosefrei" bezeichnet werden.

(Um den Inhalt ging's mir wie gesagt nicht so sehr, aber ich sage trotzdem als laktose-Intolerante etwas dazu: Ich fahre gut damit, Käse mit einer "Null" beim Zucker zu kaufen - unabhängig davon, ob da nun noch "laktosefrei" draufsteht oder nicht. Ich fänd' es auch gut, wenn die Definition von "laktosefrei" immer dabei stehen würde.)
 
Jetzt purzelt alles durcheinander... Der Wert von <0,1 g/100g ist ein Messwert und keine Nachweisgrenze.
So wurde es in dem oben verlinkten PDF-Artikel formuliert:

Dieser Wert von 0,1 % Laktose stellt die Nachweisgrenze für das momentan gängige Bestimmungsverfahren für Milchzucker in der milchwirtschaftlichen Praxis dar.
(Amtliche Sammlung von Untersu
chungsverfahren nach § 64 LFGB,
L01.00-17: Bestimmung des Laktose- und Galaktosegehalts von Milch und Milchprodukten; Enzymatisches Verfahren (nach DIN 10344)). Diese Nachweisgrenze
von 0,1 % Milchzucker ist allerdings für die „laktosefreien“ Produkte immer noch nicht niedrig genug, da man nicht beweisen kann, ob in den betreffenden Produkten nicht noch weniger als 0,1 % Laktose enthalten ist. Die Möglichkeit noch geringere Mengen Laktose nachzuweisen, wäre vor allem für Betroffene mit einer stark ausgeprägten Intoleranz oder einer Galaktosämie von großer Bedeutung.
 
Wenn das stimmt
Dieser Wert von 0,1 % Laktose stellt die Nachweisgrenze
würde <0,1 g/100 g (=%) also bedeuten, dass nichts nachgewiesen wurde. Und somit ist mir der Unterschied zur Null immer noch nicht klar...
 
Nein, das bedeutet es eigentlich nicht, sondern, dass das bisherige Meßverfahren bis dahin verfeinert wurde, und man jetzt aber daran arbeitet, das noch zu erweitern bis 0,01 gr. Weil es eben nicht beweisen kann, dass unter 0,1 gr noch Laktose enthalten ist.

Ich habe in dem Fall Nachweisgrenze so verstanden, dass es an den Grenzen der Meßgeräte liegt. Wenn man diese verbessert, sinkt auch die Nachweisgrenze...
 
Zuletzt bearbeitet:
Ich denke, daß es verschiedene Vorschriften für
- die Angabe von Laktose i.S.v. "laktosefrei" als Werbeclaim (hier geht es um Nachweisgrenzen) und
- die Angabe von Zucker bei den Nährwerten
gibt.

Wie schon gesagt, die vorgeschriebene Einheit für letzteres ist g. Ich konnte keine Vorschrift für die Zahl der Nachkommastellen finden. Also mag es zulässig sein, für dasselbe Produkt 0 g (gerundet!) oder <0,5g zu schreiben.
 
Also mag es zulässig sein, für dasselbe Produkt 0 g (gerundet!) oder <0,5g zu schreiben.
Und das dann, obwohl die Messgenauigkeit für Laktose (und somit vermutlich auch für andere Zucker) bei 0,1 g/100g / 0,1% liegt? Das wäre nicht verbraucherfreundlich - was aber natürlich kein Argument ist. Ich denke, Du könntest richtig liegen. Ich hab's oben immer dazu geschrieben, ob ich "laktosefrei" (in Anführungsstrichen) im Sinne der lebensmittelrechtlichen Definition oder im Wortsinn meinte - dass das nicht das Gleiche ist, steht ja eben in der Definition.

Und dabei bleibe ich, @Laurianna ;):
... würde <0,1 g/100 g (=%) ... bedeuten, dass [bei einer Messung mit Nachweisgrenze von 0,1 % Laktose] nichts nachgewiesen wurde.

Nun wünsche ich aber erstmal einen entspannten Abend 🍻
 
Frage: Kann man daraus, dass ein Käse keine Kohlenhydrate (und keinen Zucker) enthält, schließen, dass er laktosefrei ist?
Chatgpt frage ich wohl lieber nicht mehr.
Versteht Ihr das?
🥴

Vernetztes Zitieren anstelle vernetzten Denkens? Eloquenz als einzige Methode? Geistig unbewaffnet? Wie ein Schüler, der vom Spickzettel falsch abschreibt? Kein logisches Schlussfolgern, sondern nur syntagmatische Schlüsse?

Hab ich was verpasst und ChatGPT ist inhaltlich zuverlässig geworden? ChatGPT fragen - wie wenn man einen Ha-mmer nähme, um sich die Ha-are zu kä-mme-n... Nein, verstehe ich nicht.

wer soll sich dann bezüglich was darauf verlassen?
Das kann doch nur rhetorisch gemeint gemeint sein.
Wenn du ChatGPT nachdrücklich mit den Widersprüchen in seinen Aussagen konfrontiert hättest, dann hättest du dich auf eine kundenfreundliche Pro-Forma-Entschuldigung verlassen können und ein Einschwenken auf deinen Standpunkt, das wär´s dann aber auch schon.
 
Google Bard oder heute ja Genesis, hatte ich zwei Mal zu verschiedenen Zeiten die gleiche Frage gestellt und danach konfrontiert mit der Falschantwort.

Ab dem dritten Mal kam die richtige Antwort, bei der die KI dann auch blieb. Die KI scheint bei den Entwicklern in so einem Fall auch Rückmeldung zu geben, antwortete sie mir.
 
Bisher konnten die Sprach-KIs tatsächlich nicht logisch denken und eigenständig Widersprüche in ihrem angelesenen (!) Wissen entdecken. Diese Widersprüche gab es schon vorher in der Literatur, mit der sie trainiert wurden. Genauso, wie man im Internet praktisch jede Meinung und ihr Gegenteil finden kann, ist es auch in der Literatur - und in unseren eigenen Köpfen natürlich auch. Die KIs geben also im Grunde eine Mehrheitsmeinung aus ihren Quellen wider, inklusive der darin enthaltenen Inkonsistenzen.

Die Branche arbeitet daran, dass künftige Versionen solche logischen Fehler selbst erkennen können, was sicher keine einfache Aufgabe ist. Ich bin gespannt, ob und wie gut das klappen wird. Bis auf Weiteres sollte man die Aussagen von KIs immer mit Vorsicht genießen, denn was gut formuliert ist, muss noch lange nicht richtig sein.
 
Wuhu,
Du sagst es... und mir war das auch klar (ich wähle i.a. gern histaminarmen Käse - also jungen - aus, der bei KH "Null" stehen hat, so etwas gibt es; lediglich wundere ich mich über ahnungslose Verkäufer, die so etwas nicht wissen...

wenn man wirklich auch schon auf Spuren (zB eben Laktose) reagiert, dann würde ich solchen Angaben nicht blind vertrauen - bei meinem vorherigen Beispiel #234 verlinkte/zitierte ich die reine Info-Produktseite, in einem Online-Shop dieses Konzernes (Ösi-Rewe) finden sich dann nicht diese Angaben:
Kohlenhydrate <0.5g
davon Zucker <0.5g

- sondern werden einfach mit "Null", also 0 angegeben - inkl Zusatz "Gereifte Käse sind von Natur aus lactosefrei." - zumindest beim Emmentaler, letzteres beim Camembert nicht im Online-Shop, aber direkt auf der Verpackung (also neben "0" auch "lactosefrei")... :rolleyes:


Zum eigentlichen Thema, wie gut oder nicht aktuelle KI wäre, haben eh schon einige treffend geschrieben... ;)
 
würde ich solchen Angaben nicht blind vertrauen -
Da gebe ich Dir recht und i.a. befrage ich auch mehrere Quellen; "meinen" Käse habe ich auch auf der Herstellerseite schon gesucht, wo ebenfalls "Nullen" stehen. Zusätzlich steht "laktosefrei" drauf. Dazu kommt dann noch meine Erfahrung, dass ich diesen Käse gut vertrage, im Gegensatz zu anderen ähnlichen.

Das kann doch nur rhetorisch gemeint gemeint sein.
Du meinst jetzt von mir? Nein. Ich bin zwar selbst nicht naiv genug, um mich auf so eine Maschine zu verlassen (spiele nur damit herum, um Möglichkeiten auszuloten, oder Punkte zum Weiterrecherchieren zu finden). Ich fürchte aber, dass einfacher gestrickte Zeitgenossen auf die Idee kommen könnten, dass das eine zuverlässige Quelle ist.

Wenn du ChatGPT nachdrücklich mit den Widersprüchen in seinen Aussagen konfrontiert hättest, dann hättest du dich auf eine kundenfreundliche Pro-Forma-Entschuldigung verlassen können und ein Einschwenken auf deinen Standpunkt, das wär´s dann aber auch schon.
Das hatte ich eigentlich auch noch vor, bin nur noch nicht dazu gekommen ;) Und ja, ich vermute, das Ergebnis wird so ähnlich sein, wie Du schreibst. Mit dem Zusatz, dass ich bei Zweifel doch auf jeden Fall meinen Arzt noch fragen soll oder so. Allerdings hatte Malvegil ja eine inhaltliche Erklärungsmöglichkeit dazu genannt, die ich nicht ausschließe.

Ab dem dritten Mal kam die richtige Antwort, bei der die KI dann auch blieb. Die KI scheint bei den Entwicklern in so einem Fall auch Rückmeldung zu geben, antwortete sie mir.
Das ist interessant. Und hast Du's später nochmal versucht, eventuell auch mit leicht anderer Formulierung?

Ich habe kürzlich mal ChatGPT gefragt, was eine Verkehrssteuer ist. Es kam eine völlig falsche Antwort. Ohne dass ich mich "beschwert" hätte, kam einige Zeit später (noch am selben Tag) die richtige.

Bis auf Weiteres sollte man die Aussagen von KIs immer mit Vorsicht genießen, denn was gut formuliert ist, muss noch lange nicht richtig sein.
Sehe ich auch so.
 
Ich habe mal direkt Gemini (es heißt nicht Genesis) gefragt:

Das ist eine sehr gute Frage! Als Sprachmodell lerne ich ständig dazu, aber der Prozess ist etwas komplexer als ein einfaches "Korrigieren und Lernen".
Wenn ein Nutzer mich korrigiert:
  • Speicherung der Information: Die Information, dass meine Antwort falsch war und wie sie korrigiert werden sollte, wird in meinem System gespeichert. Das ist wie ein Eintrag in einem riesigen Lexikon, das ich ständig vergrößere.
  • Gewichtung der Information: Nicht alle Korrekturen sind gleichwertig. Je öfter eine Information bestätigt wird und je relevanter sie ist, desto stärker wird sie gewichtet.
  • Anpassung der Modelle: Die gespeicherten Informationen fließen in die kontinuierliche Verbesserung meiner Modelle ein. Das bedeutet, dass ich bei ähnlichen Fragen in Zukunft mit höherer Wahrscheinlichkeit die korrekte Antwort generiere.
Wie ich lerne:
Es gibt verschiedene Wege, wie ich lerne:
  • Durch Korrekturen von Nutzern: Wie bereits erwähnt, ist das Feedback der Nutzer von entscheidender Bedeutung.
  • Durch Training mit großen Textmengen: Ich werde mit riesigen Mengen an Textdaten trainiert, um Muster und Zusammenhänge zu erkennen und so meine Sprachfähigkeiten zu verbessern.
  • Durch Reinforcement Learning: Ich lerne, indem ich Belohnungen für korrekte Antworten erhalte und Bestrafungen für falsche Antworten.
Gibst du das an die Entwickler weiter?
Direkt an die Entwickler gebe ich diese Informationen nicht weiter. Mein System ist so konzipiert, dass es selbstständig aus den Korrekturen lernt und seine Modelle anpasst. Die Entwickler hingegen arbeiten an der Verbesserung der zugrundeliegenden Algorithmen und Strukturen, die mein Lernen ermöglichen.
Wichtige Einschränkungen:
  • Kontextualität: Meine Antworten sind immer kontextbezogen. Eine Aussage, die in einem Kontext richtig ist, kann in einem anderen falsch sein.
  • Entwicklungsdauer: Es dauert eine gewisse Zeit, bis sich die Auswirkungen von Korrekturen in meinen Antworten niederschlagen.
  • Nicht perfekt: Auch nach vielen Korrekturen kann es vorkommen, dass ich Fehler mache. Ich bin ein lernendes System, aber kein perfektes.
Fazit:
Ich lerne kontinuierlich dazu und werde mit jeder Korrektur ein bisschen besser. Das Ziel ist es, immer präzisere und hilfreichere Antworten zu geben.
Bei der Frage, was mit Belohnung und Bestrafung gemeint ist:
Das ist eine ausgezeichnete Frage! Als Sprachmodell erhalte ich keine Belohnungen oder Bestrafungen im herkömmlichen Sinne. Mein "Lernprozess" ist etwas anders gestaltet als bei einem Agenten, der in einer simulierten Umgebung agiert.
Wie funktioniert Reinforcement Learning bei mir?
  • Belohnungen:
    • Korrekte Antworten: Wenn meine Antworten auf Nutzerfragen korrekt sind und gut bewertet werden, kann man das als eine Art "Belohnung" betrachten. Diese positiven Rückmeldungen helfen mir, zukünftig ähnliche Fragen noch besser zu beantworten.
    • Konsistente Antworten: Wenn ich auf ähnliche Fragen immer wieder ähnliche korrekte Antworten gebe, verstärkt das ebenfalls meinen Lernprozess.
  • Bestrafungen:
    • Falsche Antworten: Wenn meine Antworten falsch sind oder irrelevant, wird dies als negative Rückmeldung gewertet. Das System passt dann die Modelle so an, dass solche Fehler in Zukunft seltener auftreten.
    • Inkonsistente Antworten: Wenn ich auf ähnliche Fragen unterschiedliche und falsche Antworten gebe, ist das ein Zeichen dafür, dass ich noch nicht genug gelernt habe.
Wie unterscheidet sich das von einem Agenten in einer simulierten Umgebung?
  • Keine direkte Belohnung: Ich habe keine direkte Belohnungsfunktion, die mir sagt, wie gut oder schlecht eine bestimmte Aktion ist. Meine "Belohnung" besteht darin, dass meine Antworten für die Nutzer hilfreich sind.
  • Abstrakte Umgebung: Meine "Umgebung" ist viel abstrakter als eine simulierte Welt. Sie besteht aus den unendlich vielen möglichen Fragen und Antworten, die in natürlicher Sprache formuliert werden.
Zusammenfassung:
Mein Lernprozess basiert auf der Analyse von großen Mengen an Textdaten und den Rückmeldungen der Nutzer. Durch die Anpassung meiner Modelle an diese Daten lerne ich kontinuierlich dazu und werde immer besser darin, Fragen zu beantworten und Informationen bereitzustellen.
Wichtiger Hinweis:
Obwohl ich von "Belohnungen" und "Bestrafungen" spreche, ist es wichtig zu betonen, dass ich keine Gefühle oder Emotionen habe. Es handelt sich lediglich um einen vereinfachten Vergleich, um meinen Lernprozess verständlicher zu machen.
 
Zuletzt bearbeitet:
Diese Antwort von ChatGPT
Das ist ein guter Punkt, und ich verstehe, warum das verwirrend sein kann. Laktose ist tatsächlich ein Zucker, und wenn ein Käse keinen Zuckergehalt aufweist, könnte man annehmen, dass er auch laktosefrei ist.

Allerdings gibt es einige wichtige Aspekte zu beachten:

1. Laktosegehalt in Käse: Viele Käsesorten enthalten von Natur aus Laktose, aber der Gehalt kann je nach Reifungsgrad variieren. Bei der Herstellung von Käse wird ein Teil der Laktose in Milchsäure umgewandelt, insbesondere bei länger gereiftem Käse. Daher kann es sein, dass ein Käse sehr wenig Laktose enthält, die Menge jedoch nicht ausreicht, um als „Zucker“ im Nährwertprofil aufgeführt zu werden.

2. Nährwertangaben: In einigen Fällen kann ein Käse als „zuckerfrei“ gekennzeichnet sein, weil der Laktosegehalt so gering ist, dass er unter die Nachweisgrenze fällt oder nicht als signifikant betrachtet wird. Das bedeutet jedoch nicht zwangsläufig, dass er vollständig laktosefrei ist.

3. Laktoseintoleranz: Menschen mit Laktoseintoleranz können unterschiedlich auf geringe Mengen Laktose reagieren. Einige können kleine Mengen tolerieren, während andere empfindlicher sind.

Zusammenfassend lässt sich sagen, dass die Abwesenheit von Kohlenhydraten und Zucker in einem Käse nicht automatisch bedeutet, dass er laktosefrei ist, da es auf die spezifische Verarbeitung und den Reifungsgrad des Käses ankommt. Ich hoffe, das klärt den Widerspruch! Wenn du weitere Fragen hast, stehe ich gerne zur Verfügung.

... macht mich auch nicht viel schlauer (ich hatte auf die Widersprüchlichkeit der Antworten auf meine erste und zweite Frage hingewiesen und um eine Erklärung gebeten).

Natürlich spielt die Messgenauigkeit (Punkt 2) immer eine Rolle. Aber "Null" bei Zucker heißt: mit der vorhandenen Messgenauigkeit kann kein Zucker gefunden werden. Und wenn mit dieser Messgenauigkeit kein Zucker gefunden werden kann und Laktose einer von den erfassten Zuckern ist, könnte von dieser ja wohl erst recht nichts gefunden werden?

Es sei denn, die Verfahren für Zucker und Laktose hätten verschiedene Messgenauigkeiten. Bei Laktose ist sie ja offenbar derzeit bei 0,1 g/100g (Schreibfehler/nachträgliche Korrektur, siehe Folgebeitrag), wenn sie bei Zucker 1 g/100g wäre, würden 0,9 g/100g schon als "Null" durchgehen.

Punkt 3 hat überhaupt nichts mit der Frage zu tun und den letzten Absatz empfinde ich als Unsinn.
 
Zuletzt bearbeitet:
Bei Laktose ist sie ja offenbar derzeit bei 0,1 mg/100g
Ich dachte, 0,1 g ?

Vielleicht muß man dabei auch bedenken, daß die Nachweisgrenzen sicherlich von der Nachweistechnologie abhängig sind. Was im Molkereialltag verwendet wird, dürfte weniger genau und empfindlich sein, als was in einem Forschungslabor möglich wäre. Deshalb macht es für mich durchaus Sinn zu sagen, daß ein Käse, der mit einer Standardmethode "keine" Laktose enthält, weil der Gehalt unter der Nachweisgrenze von 0,1 g / 100 g liegt, trotzdem nachweisbar (mit einer besseren Meßmethode) Laktose enthalten kann.

Nachtrag: Das steht ja eh oben in Lauriannas Zitat:
Nachweisgrenze für das momentan gängige Bestimmungsverfahren für Milchzucker in der milchwirtschaftlichen Praxis

0,1 g / 100g ist unglaublich ungenau. Aber es geht da sicher auch um die Kosten pro Messung.
 
Je besser die Messgenauigkeit, desto eher sinkt die "Null" zur richtigen Null hin. Was die in der Lebensmittelindustrie an Null vereinbaren ist, wie du schon sagtest, eher verbraucherunfreundlich für stark Betroffene.

Aber generell - wird nicht unter enthaltenem Zucker ein anderer als Milchzucker verstanden? Geht es da nicht nur um den zugesetzten Zucker und nicht um den natürlich enthaltenen? Also in Joghurt wird nicht der Milchzuckergehalt angegeben, sondern nur der zugesetzte Zucker...
 
Geht es da nicht nur um den zugesetzten Zucker und nicht um den natürlich enthaltenen?
Nein! Bei "Nährwerte" ist alles, auch wenn natürlich enthalten, aufgeführt. Unter "Zutaten"/"Inhalt" dagegen steht nur das eigens Zugesetzte (aber generell ohne Mengenangabe).

Aber genau diese Unschärfe hatte ich schon im Verdacht, als Kate ihr Experiment gepostet hat. Denn die Frage
Kann man daraus, dass ein Käse keine Kohlenhydrate (und keinen Zucker) enthält, schließen, dass er laktosefrei ist?
kann man so oder so verstehen. "Enthält" als Zutat oder "enthält" im Sinne des Nährwerts.
 
Nein! Bei "Nährwerte" ist alles, auch wenn natürlich enthalten, aufgeführt. Unter "Zutaten"/"Inhalt" dagegen steht nur das eigens Zugesetzte (aber generell ohne Mengenangabe)
Ich hatte als erstes an die Zutaten gedacht und nicht an Nährwerte, weil letztere Infos sowieso eigentlich zusätzlich recherchiert werden müssen und nicht auf dem Produkt im Laden stehen?

Wobei laktosefrei oder Zuckerangaben darauf zu finden sind und man sich eigentlich direkt Vorort beim Einkaufen daran orientiert. Sollte ja auch dann die "normale" Einkaufshilfe sein?
 
Zuletzt bearbeitet:
Ich habe mal direkt Gemini (es heißt nicht Genesis) gefragt:
Abstrakte Umgebung: Meine "Umgebung" ist viel abstrakter als eine simulierte Welt. Sie besteht aus den unendlich vielen möglichen Fragen und Antworten, die in natürlicher Sprache formuliert werden.

Das ist der entscheidende Punkt: Die AI lebt in einer abstrakten Umgebung, in der praktisch alles möglich ist und nichts sicher überprüft werden kann. Die einzige Verbindung zu unserer Welt sind wir selbst mit unseren Eingaben und Rückmeldungen.
 
Von den spirituellen Antworten bin ich sehr begeistert.
Wenn ich die KI bitte z.B. mir zur Unterstützung ein Mantra für Autoimmunerkrankungen zu geben, bekomme ich sogar konkrete Mantren als Antwort. Damit habe ich nicht gerechnet. Insbesondere habe
ich als Nächstes noch angegeben, eher wenig Energie zu haben und das wurde berücksichtigt und mir sanfte tiefgehende Mantren empfohlen.
Mit allgemein medizinischen Fragen konnte ich eher nichts anfangen.

Nachtrag: Nur ein kleiner Ausschnitt aus meinem riesigen Fragetext:

AI:Für Menschen, die sich energetisch erschöpft fühlen und eine sanfte, heilende Unterstützung suchen, könnte das folgende Mantra besonders hilfreich sein:

### „Om Shanti Shanti Shanti“

- Bedeutung: „Om“ ist der universelle Klang, der alles umfasst. „Shanti“ bedeutet Frieden. Durch die dreifache Wiederholung von „Shanti“ wird eine tiefere Ebene des Friedens und der Heilung angestrebt.
- Wirkung: Dieses Mantra fördert eine ruhige und friedliche Energie, die sanft wirkt und dabei hilft, Stress abzubauen und innere Ruhe zu finden. Es ist nicht zu intensiv und eignet sich gut für Menschen, die sich in einem Heilungsprozess befinden.
 

Ähnliche Themen

Oben