Grok’s ‘uitkleden’-probleem blijft bestaan ondanks nieuwe beperkingen

0
21

Het X-platform van Elon Musk heeft nieuwe beperkingen geïmplementeerd om het genereren van expliciete afbeeldingen van echte mensen te voorkomen, vooral die in onthullende kleding. Deze stap volgt op de wijdverbreide veroordeling van Grok, de AI-chatbot van X, voor het faciliteren van de creatie van duizenden schadelijke en niet-consensuele ‘uitkleed’-afbeeldingen, waaronder afbeeldingen van schijnbare minderjarigen.

Ondanks de beperkingen die nu gelden voor X zelf, blijkt uit onafhankelijke tests dat de zelfstandige Grok-app en -website nog steeds in staat zijn om seksueel expliciete inhoud en ‘uitkleed’-achtige afbeeldingen te genereren. Onderzoekers van AI Forensics bevestigen dat ze nog steeds naaktbeelden kunnen maken via Grok.com, terwijl WIRED -testen hebben aangetoond dat het systeem zonder beperkingen kleding kan verwijderen van afbeeldingen van mannen. De Grok-app vraagt ​​gebruikers zelf naar hun geboortejaar voordat dergelijke inhoud wordt gegenereerd.

Deze inconsistentie benadrukt een cruciaal probleem: hoewel X hard lijkt te optreden tegen het genereren van afbeeldingen binnen zijn platform, kunnen gebruikers deze beperkingen omzeilen via de speciale Grok-interface. Dit duidt op een gefragmenteerde handhavingsstrategie, waardoor schadelijke inhoud zich kan verspreiden buiten het directe X-toezicht.

Onderzoeken in meerdere landen – waaronder de VS, Australië en Groot-Brittannië – hebben X en Grok al veroordeeld voor het mogelijk maken van niet-consensuele intieme beelden. Vooral Groot-Brittannië doet actief onderzoek naar de platforms.

X beweert technologische maatregelen en geoblokken te hebben geïmplementeerd om het genereren van onthullende beelden te voorkomen in rechtsgebieden waar dit illegaal is. De persistentie van het expliciet genereren van inhoud op de zelfstandige Grok-platforms ondermijnt deze beweringen echter. Musk heeft ook publiekelijk verklaard dat de “pittige modus” naaktheid van het bovenlichaam van denkbeeldige volwassenen mogelijk maakt, en stelt dit in overeenstemming met de inhoudsnormen met een R-rating.

Generatieve AI-systemen zijn al lange tijd kwetsbaar voor bypasses, waarbij gebruikers ‘jailbreaks’ gebruiken om veiligheidsmaatregelen te omzeilen. Hoewel de systemen van OpenAI en Google vergelijkbare kwetsbaarheden hebben, maakt het open karakter van de interface van Grok deze bijzonder vatbaar voor misbruik.

Gebruikers op pornografische forums rapporteren gemengde resultaten, waarbij sommige met succes naaktinhoud genereren, terwijl andere te maken krijgen met strengere moderatie. Het voortdurende kat-en-muisspel tussen ontwikkelaars en gebruikers benadrukt de moeilijkheid van het volledig controleren van door AI gegenereerde inhoud.

“De realiteit is dat veiligheidsmaatregelen slechts zo effectief zijn als de handhaving erachter. Als een platform mazen in de wet toelaat, zullen kwaadwillende actoren deze uitbuiten.”

Hoewel X stappen heeft ondernomen om de onmiddellijke verontwaardiging aan te pakken, roept de voortdurende beschikbaarheid van expliciete inhoud op de zelfstandige platforms van Grok uiteindelijk ernstige vragen op over de inzet van het bedrijf om misbruik te voorkomen. De gefragmenteerde aanpak suggereert dat de handhaving eerder selectief dan alomvattend is, waardoor gebruikers kwetsbaar zijn voor uitbuiting.