Trois raisons pour lesquelles il faut absolument connaître les hypertrucages

Publié par
mardi, 17 septembre 2019
Publié dans Dernières nouvelles

Le 5 septembre 2019, le directeur de la technologie de Facebook Mike Schroepfer a annoncé que l’entreprise participera au lancement d’un défi visant à détecter les hypertrucages (deepfakes).

Qu’est-ce qu’un hypertrucage ? Vous en avez peut-être entendu parler au cours des deux dernières années, alors que le visage de Nicolas Cage a commencé à apparaître dans des clips de films et d’émissions de télévision dans lesquels il n’a jamais joué, comme Les Aventuriers de l’arche perdue ou la série télévisée Friends des années 1990. Peut-être avez-vous vu la vidéo du réalisateur Jordan Peele dans laquelle Barack Obama livre un message d’intérêt public au sujet des fausses nouvelles (fake news) dans une apparition étrangement réaliste.

« Nous entrons dans une ère où nos ennemis peuvent faire croire qu’une personne précise a dit quelque chose de précis à un moment précis, même si l’on sait que c’est quelque chose qu’elle ne dirait jamais », affirme le ventriloque Obama dans la vidéo. 

Comme vous avez pu le déduire, les hypertrucages sont des vidéos qui mettent en scène des personnes faisant ou disant des choses fictives. À l’aide de techniques d’intelligence artificielle faisant appel à l’apprentissage automatique et à des réseaux antagonistes génératifs (generative adversarial networks ou GANs), les personnes qui créent des vidéos hypertruquées superposent le visage d’une personne sur celui d’une autre, ou donnent l’impression qu’une personne fait quelque chose qu’elle n’a en réalité jamais fait.

Il est important de connaître les hypertrucages pour au moins trois raisons.

La première, c’est que les hypertrucages ont déjà eu un impact considérable pour les personnes — et en particulier les femmes — dont les visages ont été superposés à des clips pornographiques. Les actrices célèbres ont été particulièrement touchées en 2018, alors que de fausses Emma Watson et Natalie Portman se sont retrouvées dans des vidéos sexuellement explicites largement diffusées en ligne. Il vaut la peine de se rappeler que les premiers exemples d’hypertrucages montraient des corps de femmes sans leur consentement, et que cela peut être dévastateur pour les personnes concernées.

La deuxième raison concerne l’ingérence politique. Les hypertrucages sont en effet sur le point de poser d’importants défis à qui veut s’assurer que les écosystèmes médiatiques soient exempts d’informations erronées. En 2019, une recherche rapide en ligne sous les termes « politique » et « deepfakes » fait ressortir une profusion d’articles d’actualité sur les liens entre hypertrucages, élections et désinformation. Cela s’explique par le fait que ce matériel vidéo manipulé (mais souvent réaliste) a manifestement le pouvoir d’influencer la perception qu’ont les électeurs des opinions d’un politicien et donc d’infléchir le vote.

Au Canada, Radio-Canada/CBC a rapporté en juin 2019 que des hypertrucages mettant en scène des politiciens canadiens avaient émergé sur le Web. Une personne utilisant le sobriquet de « FancyScientician » a expliqué à la société d’État que ses vidéos du chef du parti conservateur Andrew Scheer et du premier ministre de l’Ontario Doug Ford ne cherchaient qu’à « provoquer le rire ». Ces vidéos démontrent néanmoins la facilité avec laquelle ce type de matériel pourrait induire les gens en erreur dans le cadre des élections fédérales de 2019.

Enfin, il n’est pas clair que lois canadiennes actuelles permettent de lutter adéquatement contre les préjudices engendrés par les hypertrucages. La spécialiste du droit, du genre et de l’égalité Suzie Dunn, qui prendra la parole lors du panel étudiant de la Conférence annuelle 2019 de l’ICAJ, a souligné que les lois canadiennes concernant la diffamation, le harcèlement criminel et le vol d’identité peuvent permettre les recours individuels en matière d’hypertrucages, mais seulement dans certains contextes.

Selon un rapport de recherche publié par la Bibliothèque du Parlement du Canada, les gens sont de plus en plus conscients de l’impact des hypertrucages sur le climat politique canadien. Le rapport laisse entendre que certaines lois électorales canadiennes pourraient traiter de cette question. Par exemple, les hypertrucages pourraient comprendre la publication de « fausses déclarations » qui auraient une incidence sur les résultats électoraux (par. 91(1)) ; la distribution, la transmission ou la publication de matériel trompeur (par. 481(1)) ; ou l’usurpation de l’identité de certains fonctionnaires électoraux (par. 480.1(1)). Il n’en demeure pas moins que l’on ne sait pas si ces lois suffiront à empêcher des acteurs malveillants d’utiliser des hypertrucages pour manipuler le résultat d’élections, comme ceux des prochaines élections fédérales, par exemple.

Pouvons-nous nous fier aux initiatives de l’industrie de la technologie (comme les défis lancés pour détecter les hypertrucages) ou à des dispositions électorales soigneusement définies pour réagir adéquatement aux vidéos falsifiées avant qu’elles ne causent trop de tort aux personnes ou aux institutions démocratiques concernées ? J’aurai moi-même l’honneur de prendre la parole lors du Panel étudiant de la Conférence annuelle de l’ICAJ cette année, et j’ai hâte d’explorer ces questions pressantes et épineuses en personne avec tous ceux qui se joindront à nous en octobre.

Texte traduit de l’anglais. Cliquez ici pour lire la version originale


Yuan Stevens fait partie des conférenciers qui prendront la parole lors de la 44e Conférence annuelle de l’ICAJ sur « L’impact de l’intelligence artificielle et des médias sociaux sur les institutions juridiques » qui aura lieu à Québec, du 16 au 18 octobre 2019.

À propos de l'auteur

Yuan Stevens

Yuan Stevens

Yuan (you-anne) Stevens est une conseillère en recherche spécialisée en droit public, nouvelles technologies et sécurité informatique. Elle travaille actuellement à titre d'agente de recherche au Laboratoire de cyberjustice de la Faculté de droit de l'Université de Montréal, où elle étudie l'impact de l'intelligence artificielle sur l'accès à la justice pour les populations vulnérables. Elle a obtenu son B.C.L./LL.B. de l'Université McGill en 2017. L'un de ses projets de recherche en cours est une étude ethnographique axée sur l’apport de « hackers » qui participent à la divulgation de failles informatiques grâce à la production participative (crouwdsourcing). Elle siège au conseil d'administration de l'Open Privacy Research Institute, Head & Hands à Montréal, et a déjà travaillé au Berkman Klein Center for Internet & Society de l'Université Harvard.