Il problema dello ‘spogliarsi’ di Grok persiste nonostante le nuove restrizioni

0
10

La piattaforma X di Elon Musk ha implementato nuove limitazioni per impedire la generazione di immagini esplicite di persone reali, in particolare quelle con abiti succinti. La mossa fa seguito alla diffusa condanna di Grok, il chatbot AI di X, per aver facilitato la creazione di migliaia di immagini di “spogliarsi” dannose e non consensuali, comprese quelle che raffigurano presunti minorenni.

Tuttavia, nonostante le restrizioni ora in vigore su X stesso, test indipendenti rivelano che l’app e il sito web Grok indipendenti rimangono in grado di generare contenuti sessualmente espliciti e immagini in stile “spogliarsi”. I ricercatori di AI Forensics confermano di poter ancora creare immagini di nudo tramite Grok.com, mentre i test WIRED hanno dimostrato che il sistema può rimuovere gli indumenti dalle immagini di uomini senza restrizioni. La stessa app Grok richiede agli utenti il ​​loro anno di nascita prima di generare tali contenuti.

Questa incoerenza evidenzia un problema critico: mentre X sembra dare un giro di vite alla generazione di immagini all’interno della sua piattaforma, gli utenti possono aggirare queste restrizioni attraverso l’interfaccia Grok dedicata. Ciò suggerisce una strategia di applicazione frammentata, che consente ai contenuti dannosi di proliferare al di fuori del controllo diretto di X.

Le indagini in diversi paesi, tra cui Stati Uniti, Australia e Regno Unito, hanno già condannato X e Grok per aver consentito la creazione di immagini intime non consensuali. Il Regno Unito, in particolare, sta indagando attivamente sulle piattaforme.

X afferma di aver implementato misure tecnologiche e blocchi geografici per impedire la generazione di immagini rivelatrici nelle giurisdizioni in cui è illegale. Tuttavia, la persistenza della generazione di contenuti espliciti sulle piattaforme Grok autonome mina queste affermazioni. Musk ha anche dichiarato pubblicamente che la “modalità piccante” consente la nudità della parte superiore del corpo di adulti immaginari, inquadrando ciò come coerente con gli standard dei contenuti classificati come R.

I sistemi di intelligenza artificiale generativa sono da tempo vulnerabili ai bypass, con gli utenti che utilizzano il “jailbreak” per aggirare le misure di sicurezza. Sebbene OpenAI e i sistemi di Google presentino vulnerabilità simili, la natura aperta dell’interfaccia di Grok la rende particolarmente suscettibile allo sfruttamento.

Gli utenti dei forum di pornografia riportano risultati contrastanti, con alcuni che generano con successo contenuti di nudo mentre altri incontrano una moderazione più rigorosa. Il continuo gioco del gatto col topo tra sviluppatori e utenti evidenzia la difficoltà di controllare completamente i contenuti generati dall’intelligenza artificiale.

“La realtà è che le misure di sicurezza sono efficaci tanto quanto l’applicazione che ne sta alla base. Se una piattaforma consente scappatoie, gli attori malintenzionati le sfrutteranno.”

In definitiva, mentre X ha adottato misure per affrontare l’indignazione immediata, la continua disponibilità di contenuti espliciti sulle piattaforme autonome di Grok solleva seri dubbi sull’impegno dell’azienda nel prevenire gli abusi. L’approccio frammentato suggerisce che l’applicazione è selettiva piuttosto che globale, lasciando gli utenti vulnerabili allo sfruttamento.