Crédit photo : Adam Mosseri (Instagram)
Adam Mosseri, responsable d’Instagram, estime que nous devrions prendre les empreintes digitales des médias réels au lieu d’essayer de suivre et d’identifier la quantité croissante de déchets d’IA en ligne.
Si vous avez été sur une plateforme de médias sociaux au cours de la dernière année, vous avez sans aucun doute été témoin de l’assaut du contenu généré par l’IA qui a envahi pratiquement tous les flux. Mais le PDG d’Instagram, Adam Mosseri, dit que c’est normal, et que cela ne fera que devenir plus répandu. Nous devrions donc identifier les « vrais médias », plutôt que d’identifier les « vrais médias ». « à la recherche de faux » contenus.
« Nous constatons désormais une abondance de contenu généré par l’IA, et il y aura bien plus de contenu créé par l’IA que capturé par les moyens traditionnels dans quelques années. » a écrit Mosseri sur les discussions. “Nous aimons parler de” slop de l’IA “, mais il existe de nombreux contenus d’IA étonnants qui, heureusement, n’ont pas les propriétés dérangeantes des membres tordus et de la physique absente.”
“Les plateformes de médias sociaux vont subir une pression croissante pour identifier et étiqueter le contenu généré par l’IA en tant que tel. Toutes les grandes plateformes feront du bon travail en identifiant le contenu de l’IA, mais leur tâche s’aggravera au fil du temps à mesure que l’IA s’améliorera dans sa capacité à imiter la réalité”, a-t-il poursuivi.
“Il y a déjà un nombre croissant de personnes qui croient, comme moi, qu’il sera plus pratique de prendre des empreintes digitales sur de vrais médias que sur de faux médias. Les fabricants d’appareils photo pourraient signer cryptographiquement les images lors de la capture, créant ainsi une chaîne de contrôle.”
S’il est logique que les fabricants adoptent le filigrane numérique pour atténuer la confusion quant à la légitimité d’une image, la position du responsable d’Instagram indique un plus gros problème. Il existe déjà beaucoup trop de contenu généré par l’IA pour que quiconque puisse tout suivre. De nombreuses plates-formes qui ont utilisé une certaine forme de marquage IA sont pas toujours préciset les mauvais acteurs qui ne veulent pas que leur contenu soit identifié comme faux pourraient en profiter.
Des études indiquent que l’IA s’effondre représente jusqu’à 70 % du contenu nous le voyons maintenant sur les réseaux sociaux, mais ce chiffre semble un peu élevé. Cependant, Mosseri a probablement raison en ce sens qu’il est impossible d’identifier chaque morceau de « déchet d’IA » – et cela ne fera que devenir plus difficile à mesure que la technologie s’améliore.
Alors quelle est la solution ? Peut-être que l’identification du contenu créé par l’homme est la voie à suivre, ou peut-être devons-nous attendre davantage de nos seigneurs des entreprises technologiques. Quoi qu’il en soit, il sera intéressant de voir comment le suivi de l’IA évolue et comment les plateformes de médias sociaux continuent de lutter (ou d’adopter) la pente de l’IA cette année.
