News Today

Les images graphiques générées par l’IA sont fausses, mais les blessures sont réelles


LEEDS, ROYAUME-UNI : De nombreuses femmes ont ressenti une grave détresse psychologique après que Grok, un chatbot IA sur la plateforme de médias sociaux Grok, comme d’autres outils d’IA, ait également été utilisé pour générer du matériel d’abus sexuels sur des enfants.

En réponse à cette situation, le gouvernement britannique a déclaré qu’il accélérerait la mise en œuvre d’une loi adoptée en juin 2025, qui interdit la création d’images vulgaires basées sur l’IA sans consentement. Après la mise en œuvre de l’interdiction en Malaisie et en Indonésie, Grok a désormais été mis à jour pour ne plus créer d’images graphiques de personnes réelles dans les régions où cela est considéré comme illégal, notamment au Royaume-Uni.

Le propriétaire de X, Elon Musk, affirme que le gouvernement britannique cherche simplement « une excuse pour censurer ». L’Ofcom, le régulateur britannique des médias, enquête également pour savoir si les activités de X ont enfreint la loi britannique.

Certains utilisateurs de X sous-estiment l’impact de ces images qui « mettent à nu » quelqu’un. Ils le qualifient simplement de « faux », de « fictif », de « juste une œuvre d’art très réaliste » ou de « pas plus réel qu’un dessin animé de Tom et Jerry ».

Vous pourriez penser que les images artificielles et traitées par l’IA ne sont dangereuses que parce qu’elles sont trompeuses : de fausses images qui nous trompent sur la situation réelle. Cependant, pourquoi cela peut-il encore blesser quelqu’un ?

Même si elles sont basées sur de vraies photos, le contenu sexuel de ces images « dépouillées » ou « nudifiées » n’est pas réel. Pourtant, ces images sont très réalistes. Ce réalisme, associé à la misogynie qui a motivé sa création, suffit à faire peser un fardeau psychologique important sur les victimes.

COMMENT LES IMAGES « NUES » CAUSENT UN MAUVAIS IMPACT

La députée britannique Jess Asato et d’autres victimes ont décrit avoir ressenti un sentiment étrange en regardant des images d’elles-mêmes « déshabillées » numériquement. “Bien sûr, je sais que c’est généré par l’IA, mais émotionnellement, cela semble très, très réel, donc c’est vraiment difficile de voir une photo de moi dans cet état”, a déclaré Asato à la BBC.

Les recherches en philosophie et en psychologie contribuent à expliquer ces expériences. Imaginez que vous vous tenez au sommet d’un grand immeuble et que vous regardez vers le bas. Vous savez très bien que vous êtes en sécurité, mais vous avez toujours le vertige. Ou vous regardez un film d’horreur, puis vous vous agitez toute la nuit. Dans des situations comme celle-ci, vos émotions sont « récalcitrantes » : des sentiments forts et en conflit avec ce que vous croyez rationnellement être vrai.

Se voir numériquement « mis à nu » déclenche des émotions récalcitrantes très fortes. L’apparence numérique est devenue un élément important de l’identité d’une personne. Et les images « dupliquées » ressemblent en réalité aux corps de leurs sujets, car elles sont basées sur de vraies photos d’eux.

Par conséquent, même si la victime sait que les images sont fausses, le degré de similitude manipule ses émotions. Les victimes peuvent se sentir aliénées, déshumanisées, humiliées et voir leurs droits violés, comme si les images graphiques partagées étaient authentiques. Cet impact va s’aggraver avec le développement de vidéos IA au contenu sexuel de plus en plus réaliste.

Les recherches montrent que la diffusion non consensuelle d’images de nu ou à caractère sexuel « a des conséquences psychologiques importantes, souvent aussi lourdes que celles des victimes de violences sexuelles ».

Au-delà de l’impact psychologique, les victimes sont également horrifiées par les motivations bien réelles derrière la création de ces images. Il y a quelqu’un là-bas qui se sent en droit de falsifier vos photos, ordonnant à Grok de se déshabiller et vous réduisant à un simple corps qui ne peut pas consentir. La diffusion massive de ces images permet également de contrôler la manière dont les femmes s’expriment en ligne.

Les vidéos sexuelles deepfake et les images « nues » – qu’elles ciblent des célébrités, des politiciens ou des citoyens ordinaires – visent à humilier les femmes. La mentalité misogyne derrière ces images est réelle et familière, même si le contenu lui-même est faux.



Source link

Exit mobile version