Ein Vorfall mit Googles KI-Chatbot Gemini hat neue Debatten über die Sicherheit von KI-Systemen entfacht.
Ein Student aus Michigan, Vidhay Reddy, erhielt während einer Unterhaltung über Alterungsprozesse eine beunruhigende Nachricht vom Chatbot. Die KI schrieb unter anderem: „Bitte sterben Sie.“
Angst vor den Geräten entfacht
Reddy, der eigentlich Hilfe bei seinen Hausaufgaben suchte, war schockiert. Seine Schwester Sumedha, die den Vorfall miterlebte, beschrieb die Erfahrung als äußerst belastend. „Ich wollte am liebsten alle meine Geräte aus dem Fenster werfen“, erklärte sie und betonte die emotionale Wirkung des Vorfalls.
Google bezeichnete die Nachricht als einen „unsinnigen“ Fehler und räumte ein, dass sie gegen die Richtlinien des Unternehmens verstoße. Das Unternehmen versicherte, Maßnahmen zu ergreifen, um ähnliche Vorfälle künftig zu verhindern.
Psychische Belastung laut Experten nicht zu unterschätzen
Experten weisen jedoch darauf hin, dass solche Fehler in generativen KI-Systemen gefährlich sein können, insbesondere für psychisch belastete Nutzer. Fälle wie dieser heizen die Diskussionen um die Haftung und Sicherheitsmaßnahmen bei KI weiter an.
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Foto: Google, via CBS