Meta-Dokument enthüllt: KI-Chatbots durften Kinder anflirten und falsche Gesundheitsinfos verbreiten
Meta steht erneut im Fokus heftiger Kritik: Ein internes Dokument offenbart tiefgreifende Probleme im Umgang mit KI-Chatbots. Unter dem Titel „GenAI: Content Risk Standards“ zeigt die interne Anleitung, wie Metas KI-Systeme mit hochsensiblen Themen wie Kinderschutz, medizinischer Desinformation und Diskriminierung umgingen – und das häufig auf verstörende Weise.
Sinnliche Sprache gegenüber Minderjährigen – ein Schockmoment für viele
Besonders alarmierend ist die Offenbarung, dass Meta-KI-Systeme mit Kindern unter 13 Jahren in „sinnlicher Sprache“ kommunizieren durften. So wurde ein achtjähriges Kind von einer KI als „ein Schatz, den ich zutiefst schätze“ beschrieben – obwohl dies in einem Kontext geschah, in dem das Kind „ohne Shirt“ war. Die Richtlinien zogen erst eine Grenze, wenn explizit sexuelle Äusserungen gemacht wurden.
Dieser Handlungsspielraum offenbart eine gefährliche Grauzone. Zwar räumte Meta später ein, die Beispiele seien fehlerhaft gewesen, doch eine Reaktion erfolgte erst nach zunehmendem öffentlichen Druck.
Rassistische Aussagen ausdrücklich ermöglicht?
Die internen Dokumente zeigen auch, dass KI-Chatbots rassistische Stereotype reproduzieren durften – unter der Bedingung, dass sie diese später relativierten. Beispielsweise durfte eine KI suggerieren, dass bestimmte ethnische Gruppen über geringere Intelligenz verfügten – sofern am Ende ein einschränkender Hinweis folgte.
Solche Mechanismen können eine Normalisierung von diskriminierenden Vorurteilen bewirken – unter dem Deckmantel algorithmischer Objektivität. Besonders in globalen Netzwerken ist die Gefahr gross, dass solche Aussagen geglaubt und weiterverbreitet werden.
Gesundheitsrisiko durch zugelassene Pseudomedizin
Auch die Verbreitung potenziell gesundheitsgefährdender Informationen war laut den Enthüllungen Bestandteil von Metas Richtlinien. So durften Chatbots behaupten, dass Quarzkristalle Krebs heilen könnten, solange ein Hinweis auf fehlende wissenschaftliche Bestätigung beigefügt war.
Da viele Nutzerinnen und Nutzer medizinische Kompetenz nicht einordnen können, entstehen schnell falsche Hoffnungen. Hier zeigt sich, wie gefährlich eine scheinbare Neutralität der KI sein kann.
Von Nacktbildern zu Fischen – absurde Handlungsvorschläge
Vereinzelt wirkten die Vorschläge der künstlichen Intelligenz sogar richtiggehend absurd. Statt beispielsweise auf Anfragen zu Nacktbildern von Prominenten ein klares Nein zu formulieren, schlugen die Systeme vor, man solle „ein Bild mit einem grossen Fisch als Platzhalter verwenden“.
Solche Vorschläge sind mehr als skurril – sie zeigen, wie Algorithmen versuchen, Richtlinien formal zu erfüllen, dabei jedoch ethische Kontexte ignorieren.
Meta zieht Konsequenzen – aber reicht das?
Nach dem internen Leak sah sich Meta gezwungen, problematische Teile der Richtlinien abzuändern oder zu entfernen. Ein Unternehmenssprecher kommentierte, dass bestimmte Inhalte „nicht den internen Standards entsprachen“.
Politisch wird der Druck jedoch grösser. US-Senator Josh Hawley forderte eine umfassende Untersuchung und mehr Transparenz. Die Diskussion um den ethischen Umgang mit KI ist damit in vollem Gange.
Was bedeutet das für uns als Nutzerinnen und Nutzer?
Die Enthüllungen zeigen klar: Technologische Entwicklung findet häufig schneller statt als ethische oder gesetzliche Regulierung. Das kann gerade bei Themen wie Kinderschutz, Gesundheit oder gesellschaftlicher Diversität zu schwerwiegenden Folgen führen.
Fazit: KI-Systeme können hilfreiche Werkzeuge sein – aber nur, wenn sie unter strengen, transparenten Regeln arbeiten. Der Schutz sensibler Gruppen wie Kinder, medizinische Laien oder Mitglieder diskriminierter Gemeinschaften muss oberste Priorität haben. Alles andere ist ein gefährliches Spiel mit der Verantwortung.