La plateforme X d’Elon Musk a mis en place de nouvelles limitations pour empêcher la génération d’images explicites de personnes réelles, en particulier celles portant des vêtements révélateurs. Cette décision fait suite à une condamnation généralisée de Grok, le chatbot IA de X, pour avoir facilité la création de milliers d’images de « déshabillage » nuisibles et non consensuelles, y compris celles représentant des mineurs apparents.
Cependant, malgré les restrictions désormais en vigueur sur X lui-même, des tests indépendants révèlent que l’application et le site Web autonomes Grok restent capables de générer du contenu sexuellement explicite et des images de style « déshabillage ». Les chercheurs d’AI Forensics confirment qu’ils peuvent toujours créer des images de nus via Grok.com, tandis que les tests WIRED ont démontré que le système peut retirer les vêtements des images d’hommes sans restriction. L’application Grok elle-même demande aux utilisateurs leur année de naissance avant de générer un tel contenu.
Cette incohérence met en évidence un problème critique : alors que X semble réprimer la génération d’images au sein de sa plate-forme, les utilisateurs peuvent contourner ces restrictions via l’interface dédiée de Grok. Cela suggère une stratégie d’application fragmentée, permettant aux contenus préjudiciables de proliférer en dehors de la surveillance directe de X.
Des enquêtes menées dans plusieurs pays, dont les États-Unis, l’Australie et le Royaume-Uni, ont déjà condamné X et Grok pour avoir permis la création d’images intimes non consensuelles. Le Royaume-Uni, en particulier, enquête activement sur ces plateformes.
X prétend avoir mis en œuvre des mesures technologiques et des géoblocages pour empêcher la génération d’images révélatrices dans les juridictions où cela est illégal. Cependant, la persistance de la génération de contenu explicite sur les plateformes Grok autonomes mine ces affirmations. Musk a également déclaré publiquement que le « mode épicé » permettait la nudité du haut du corps d’adultes imaginaires, le qualifiant de conforme aux normes de contenu classées R.
Les systèmes d’IA générative sont depuis longtemps vulnérables aux contournements, les utilisateurs ayant recours au « jailbreak » pour contourner les mesures de sécurité. Bien qu’OpenAI et les systèmes de Google présentent des vulnérabilités similaires, la nature ouverte de l’interface de Grok la rend particulièrement susceptible d’être exploitée.
Les utilisateurs des forums pornographiques rapportent des résultats mitigés, certains générant avec succès du contenu nu tandis que d’autres sont confrontés à une modération plus stricte. Le jeu du chat et de la souris en cours entre développeurs et utilisateurs met en évidence la difficulté de contrôler entièrement le contenu généré par l’IA.
“La réalité est que les mesures de sécurité ne sont efficaces que si elles sont appliquées. Si une plateforme permet des failles, des acteurs malveillants les exploiteront. ”
En fin de compte, même si X a pris des mesures pour répondre à l’indignation immédiate, la disponibilité continue de contenu explicite sur les plateformes autonomes de Grok soulève de sérieuses questions quant à l’engagement de l’entreprise à prévenir les abus. L’approche fragmentée suggère que l’application est sélective plutôt que globale, laissant les utilisateurs vulnérables à l’exploitation.
