La dernière innovation d'OpenAI, un modèle de génération vidéo nommé Sora 2, a suscité un vif intérêt, tant pour ses capacités impressionnantes que pour les défis éthiques qu'il soulève. Lancé avec un accès limité au début du mois, Sora 2 a rapidement été salué pour sa capacité à produire des images et des animations d'une qualité réaliste, mais cette avancée technologique a également été entachée par des problèmes de droits d'auteur et de création de deepfakes impliquant des figures historiques, telles que Martin Luther King Jr. et John F. Kennedy.
Face à ces préoccupations, OpenAI a rapidement mis en place des mesures pour minimiser ses responsabilités légales. Sam Altman, le PDG de l'entreprise, a annoncé que les détenteurs de droits d'auteur devraient donner leur consentement avant que leurs contenus ne puissent être remixés par les utilisateurs. Cela inclut des œuvres populaires telles que "SpongeBob SquarePants" et "Family Guy". De plus, l'entreprise a accepté de bloquer toute représentation "irrespectueuse" de Martin Luther King Jr. à la demande de la succession du leader des droits civiques.
OpenAI a également rassuré le syndicat SAG-AFTRA, représentant les artistes de la scène, qu'elle prenait des mesures pour protéger les figures publiques contre les deepfakes. Toutefois, malgré ces efforts, le contenu problématique persiste sur Sora, une plateforme de médias sociaux qui fonctionne de manière similaire à TikTok, mais qui ne propose que des vidéos générées par intelligence artificielle.
Des utilisateurs peuvent choisir d'avoir leur image utilisée dans des "Cameos", où d'autres peuvent inciter le modèle d'IA à intégrer leur personne dans divers contextes, dont certains ne sont pas flatteurs. Selon une étude menée par Copyleaks, une entreprise spécialisée dans l'analyse de l'IA, une nouvelle tendance a émergé : des vidéos sur Sora mettant en scène des célébrités qui semblent proférer des épithètes racistes. Ces vidéos soulèvent des questions éthiques sur l'utilisation de l'IA dans la création de contenu.
Les chercheurs de Copyleaks ont fait référence à un phénomène similaire au "Kingposting", une expression tirée d'un incident viral de 2020 où un passager d'avion arborant une couronne de Burger King a été filmé en train de crier des insultes racistes. Dans les vidéos Cameo de Sora, des figures publiques telles que Sam Altman, le milliardaire Mark Cuban, le boxeur et influenceur Jake Paul, ainsi que les streamers xQc et Amouranth, apparaissent en tant que passagers d'un avion portant une couronne de Burger King, réinterprétant ainsi ce mème offensant.
Pour contourner les filtres de la plateforme qui bloquent les discours de haine, Copyleaks a observé que les utilisateurs semblaient utiliser des termes codés ou phonétiquement similaires afin de générer des sons imitant des insultes racistes bien connues. Par exemple, une version deepfake d'Altman a été créée où il crie "Je déteste les tricoteurs" alors qu'il est escorté hors d'un avion. Ce type de comportement met en évidence une tendance inquiétante à l'évasion des systèmes de modération de contenu, où les utilisateurs exploitent délibérément les failles de ces systèmes.
Les vidéos générées par Sora ont la particularité d'être téléchargeables, ce qui permet une réappropriation facile et une diffusion sur d'autres applications. Par exemple, un clip de Jake Paul répétant la phrase "mon cou me fait mal" a accumulé 1,5 million de vues et 168 000 likes sur TikTok. Un autre vidéo, qui a également été partagée sur TikTok, présente un deepfake de Paul criant "Je déteste le jus", manifestement destiné à une provocation antisémite. Les utilisateurs de Sora 2 semblent rencontrer peu de difficultés à créer des représentations visuelles basées sur divers stéréotypes antisémites, ce qui soulève des inquiétudes quant à la manière dont ces technologies pourraient être utilisées pour propager la haine.
Ce phénomène ne se limite pas aux vidéos de "Kingposting". Il soulève des questions plus larges sur l'utilisation de l'intelligence artificielle et des deepfakes dans notre société moderne. Alors que la technologie continue d'évoluer à un rythme rapide, il est impératif que les entreprises comme OpenAI prennent des mesures proactives pour empêcher l'utilisation abusive de leurs outils. Les conséquences de la diffusion de ce type de contenu peuvent être dévastatrices, tant pour les individus ciblés que pour la société dans son ensemble.
De nombreux experts en technologie et en éthique plaident pour une réglementation plus stricte concernant la création et la diffusion de contenus générés par l'intelligence artificielle. Ils soulignent la nécessité d'un cadre légal qui protège non seulement les créateurs de contenu, mais aussi les individus contre la désinformation et les atteintes à leur réputation. Des discussions sont en cours sur la manière dont les législations peuvent évoluer pour s'adapter à ces nouvelles réalités technologiques.
Alors que Sora 2 présente des possibilités fascinantes pour l'avenir de la création de contenu, il est essentiel d'aborder les problèmes éthiques qui en découlent. La capacité de générer des vidéos de célébrités apparaissant à proférer des slurs racistes n'est pas seulement un problème technique, mais un reflet des défis plus larges auxquels notre société est confrontée en matière de responsabilité numérique et de respect des droits individuels. La vigilance des utilisateurs, des entreprises et des législateurs sera cruciale pour naviguer dans cette nouvelle ère de la technologie.