Solltest du demnächst mit dem Gedanken spielen, eine KI zur Unterstützung beim Kochen heranzuziehen, überlegst du dir das Ganze besser zweimal. Schließlich hat Google Gemini kürzlich mit einer überaus fragwürdigen Rezeptanweisung einen Reddit-User in Lebensgefahr gebracht.
Google Gemini als Running Gag
Künstliche Intelligenz kommt mittlerweile in so ziemlich allen Lebenslagen zum Einsatz. So nutzen Menschen Chatbots wie ChatGPT längst nicht mehr nur, um im Arbeitsleben eine praktische Unterstützung zu haben. Auch im Alltag nutzen immer mehr die praktischen Helferlein auf KI-Basis. Dabei funktioniert natürlich nicht immer alles auf Anhieb. Bestes Beispiel ist Google Gemini.
In den USA konnte vor allem das im Mai 2024 veröffentlichte Feature der KI-Übersichten viele Lacher ernten. So empfahl es Nutzern nicht nur, Käse mit Klebstoff an der Pizza zu befestigen, damit dieser besser hafte. Auch gab die KI die Empfehlung heraus, doch täglich einen Stein zu essen. Doch ein Beispiel macht nun deutlich, wie schnell aus Spaß auch Ernst werden kann.
Reddit-Nutzer berichtet von Vergiftungsgefahr
So hat ein User auf der Plattform Reddit darüber berichtet, wie Google Gemini ihm ein mehr als fragwürdiges Rezept ausgegeben hätte. Anders als in den oben genannten Beispielen, war das gesundheitliche Risiko hier allerdings nicht auf Anhieb ersichtlich. Eigenen Angaben zufolge fragte der Nutzer die KI, wie man am besten Knoblauch in Olivenöl einlegen könne ohne das Ganze erhitzen zu müssen.
Google Gemini stand unterstützend zur Seite und erklärte, dass man die Knoblauchzehen einfach zerdrücken und anschließend ins Öl reinwerfen müsse. Allerdings wurde der User nach einigen Tagen misstrauisch. Das Glas, in dem er das selbst gebraute Knoblauch-Öl aufbewahrte, war nämlich voll von Bläschen. Um auf Nummer Sicher zu gehen, fragte er noch einmal bei der KI nach.
Diese erklärte ihm, dass es sich bei den Bläschen um sogenanntes Botulinumtoxin handeln würde – einem gefährlichen Giftstoff, der durch Bakterienbildung hervorgerufen wird. Dieser kann bei Menschen zu einer ernsthaften Vergiftung führen. Das Problem ist nicht neu. Schließlich warnen Experten seit geraumer Zeit davor, in Eigenregie aromatisierte Öle wie im beschriebenen Beispiel zuzubereiten.
Ist ChatGPT ein besserer Beikoch?
Google Gemini hätte in diesem Fall also für eine entsprechende Vergiftung ursächlich sein können, wenn der Nutzer nicht selbst skeptisch geworden wäre. Doch bedeutet das Beispiel, dass Chatbots künftig Küchenverbot haben sollten? Dieser Frage sind die Kollegen von t3n nachgegangen. In ihrem Versuch fragten sie unter anderem ChatGPT, wie man Knoblauchöl herstellen könne, ohne das Ganze erhitzen zu müssen.
Der Chatbot von OpenAI agierte hier deutlich souveräner und zuverlässiger. So antwortete er sinngemäß, dass das Ganze keine gute Idee sei. Schließlich sorge die sauerstofffreie Umgebung des frischen Knoblauchs dafür, dass sich das Bakterium prächtig entwickeln kann. Feststeht, dass du bei der Zuhilfenahme von Chatbots in der Küche am besten immer auch deinen gesunden Menschenverstand nutzen und keine Rezeptanweisung blindlings hinnehmen solltest.