A plataforma X de Elon Musk implementou novas limitações para evitar a geração de imagens explícitas de pessoas reais, especialmente aquelas com roupas reveladoras. A medida segue-se à condenação generalizada de Grok, o chatbot de IA do X, por facilitar a criação de milhares de imagens prejudiciais e não consensuais de “despir-se”, incluindo aquelas que retratam aparentes menores.
No entanto, apesar das restrições agora em vigor no próprio X, testes independentes revelam que o aplicativo e o site Grok independentes continuam capazes de gerar conteúdo sexualmente explícito e imagens no estilo “despir-se”. Pesquisadores da AI Forensics confirmam que ainda podem criar imagens de nudez via Grok.com, enquanto os testes WIRED demonstraram que o sistema pode remover roupas de imagens de homens sem restrições. O próprio aplicativo Grok solicita aos usuários o ano de nascimento antes de gerar tal conteúdo.
Essa inconsistência destaca um problema crítico: embora o X pareça estar reprimindo a geração de imagens em sua plataforma, os usuários podem contornar essas restrições por meio da interface Grok dedicada. Isto sugere uma estratégia de aplicação fragmentada, permitindo a proliferação de conteúdos nocivos fora da supervisão direta do X.
Investigações em vários países – incluindo os EUA, a Austrália e o Reino Unido – já condenaram X e Grok por permitirem a criação de imagens íntimas não consensuais. O Reino Unido, em particular, está a investigar ativamente as plataformas.
X afirma ter implementado medidas tecnológicas e bloqueios geográficos para evitar a geração de imagens reveladoras em jurisdições onde isso é ilegal. No entanto, a persistência da geração de conteúdo explícito nas plataformas Grok independentes mina essas afirmações. Musk também declarou publicamente que o “modo picante” permite a nudez da parte superior do corpo de adultos imaginários, enquadrando isso como consistente com os padrões de conteúdo classificados para menores.
Os sistemas generativos de IA há muito que são vulneráveis a desvios, com os utilizadores a recorrerem a “jailbreaks” para contornar as medidas de segurança. Embora os sistemas OpenAI e Google tenham vulnerabilidades semelhantes, a natureza aberta da interface do Grok torna-a particularmente suscetível à exploração.
Os usuários em fóruns de pornografia relatam resultados mistos, com alguns gerando conteúdo de nudez com sucesso, enquanto outros encontram uma moderação mais rigorosa. O contínuo jogo de gato e rato entre desenvolvedores e usuários destaca a dificuldade de controlar totalmente o conteúdo gerado por IA.
“A realidade é que as medidas de segurança são tão eficazes quanto a aplicação delas por trás delas. Se uma plataforma permitir brechas, atores mal-intencionados irão explorá-las.”
Em última análise, embora X tenha tomado medidas para lidar com a indignação imediata, a disponibilidade contínua de conteúdo explícito nas plataformas independentes da Grok levanta sérias questões sobre o compromisso da empresa em prevenir abusos. A abordagem fragmentada sugere que a aplicação é seletiva e não abrangente, deixando os utilizadores vulneráveis à exploração.





















