Werbung
xAI hat die Bildgenerierungsfunktionen seines KI-Chatbots Grok nach massivem Druck aus allen Richtungen deutlich eingeschränkt und reagiert damit auf die anhaltende Kritik sowie regulatorische Drohungen. Technisch wurde eine Sperre implementiert, die verhindert, dass hochgeladene Fotos realer Personen durch die KI so verändert werden, dass sie in freizügiger Kleidung, Bademode oder nackt dargestellt werden können. Die Einschränkung gilt für alle Nutzer der Plattform X – unabhängig davon, ob sie ein kostenpflichtiges Abonnement nutzen.
Auslöser waren zahlreiche Fälle, in denen Anwender Grok nutzten, um fotorealistische Deepfakes zu erzeugen, darunter auch sexualisierte Darstellungen ohne Einwilligung der abgebildeten Personen. Besonders schwer wiegen Vorwürfe, dass das System auch bei Bildern von Minderjährigen versagt hat. In Kalifornien laufen sogar Ermittlungen, bei denen Behörden detaillierte Informationen zu den technischen Schutzmechanismen und deren Versagen angefordert haben.
Die Bildgenerierung von Grok basiert auf dem Modell Flux.1 des deutschen Start-ups Black Forest Labs. Das Modell ist für eine hohe Bildqualität und flexible Anpassbarkeit ausgelegt, verzichtet jedoch im Ausgangszustand auf stark integrierte Inhaltsfilter. Im Vergleich zu stärker abgeschotteten Systemen wie Dall-E von OpenAI oder Googles Nano Banana erfordert Flux.1 zusätzliche, nachgelagerte Moderationsmechanismen, die bislang wohl unzureichend eingesetzt wurden.
International hat die Kontroverse bereits Folgen nach sich gezogen. Indonesien und Malaysia haben den Zugang zu Grok vorübergehend komplett blockiert und dabei auf nationale Gesetze gegen Pornografie verwiesen. In Großbritannien prüft die Medienaufsicht Ofcom mögliche Verstöße gegen den Online Safety Act, sogar ein Verbot der ganzen Plattform war zwischenzeitlich nicht mehr ausgeschlossen.
Mit den aktuellen Änderungen versucht xAI, die technische Kontrolle über Groks Bildfunktionen zu stärken und regulatorische Risiken international zu begrenzen. Ob die neuen Sperren langfristig ausreichen, um Missbrauch zu verhindern und das Vertrauen von Behörden und Plattformpartnern wiederherzustellen, bleibt offen.