Yassine Mahjoub/SIPA
Une nouvelle dérive de l’intelligence artificielle fait jaser. Des utilisateurs s’en prennent à l’intimité de femmes et cela inquiète.
Depuis quelques semaines, une nouvelle dérive autour de l’intelligence artificielle alarme les internautes. Derrière la prétendue innovation, c’est une violence numérique ciblée qui s’installe. Si à l’origine Grok devait simplement répondre aux questions sur le réseau social X, certains internautes ont détourné son usage. Ils lui demandent de générer des images de femmes en sous-vêtements, le tout à partir de simples photos volées ou détournées. En quelques secondes, une photo banale devient un cliché intime, partagé sans consentement.
Les premiers posts sur X ont été repérés et signalés dès le 5 mai par Numerama. "Techniquement parlant, Grok peut déshabiller tout le monde", selon le site. Ces visuels circulent sur la plateforme sociale sous le regard passif de la modération. Humiliation, violation de la vie privée, atteinte à la dignité... les dégâts sont considérables. Le phénomène se répand, malgré son caractère illégal.
Officiellement, Grok ne permet pas la nudité. L’outil assure qu’il respecte des règles éthiques strictes. Pourtant, dans les faits, détourner une image prend à peine quelques clics. L’IA accepte de générer des personnes en sous-vêtements, hommes comme femmes. Et même lorsqu’elle refuse certaines demandes, des utilisateurs cherchent des moyens rusés pour contourner les limites.
Cette pratique rappelle les deepfakes, ces vidéos pornos truquées avec le visage d’inconnues. Ce n’est plus seulement de la technologie, mais une atteinte directe à la dignité. En France, ces actes sont punis par la loi. La violation du droit à l’image peut être sanctionnée par 2 ans de prison et jusqu’à 60 000 € d’amende.