L’éthique d’une voix deepfake d’Anthony Bourdain dans « Roadrunner »

Vues: 7
0 0
Temps de lecture:10 Minute, 4 Second

Le documentaire « Roadrunner: A Film About Anthony Bourdain », qui a ouvert ses portes vendredi, est une chronique en colère, élégante et souvent extrêmement émotionnelle de la vie de la star de la télévision et de son impact sur ses proches. Réalisé par Morgan Neville, le film dépeint Bourdain aussi intense, dégoûtant de soi, conduit sans relâche, charismatique surnaturel, et – dans sa vie et dans sa mort, par suicide, en 2018 – un homme qui à la fois focalisait et dérangeait la vie de ceux qui l’entouraient. Pour élaborer le récit du film, Neville s’est appuyé sur des dizaines de milliers d’heures de séquences vidéo et d’archives audio et, pour trois lignes particulières entendues dans le film, Neville a chargé une société de logiciels de créer une version générée par l’IA de la voix de Bourdain. L’actualité de l’audio synthétique, dont Neville a discuté la semaine dernière dans des interviews avec moi et avec Brett Martin, à GQ, a provoqué une colère et un malaise saisissants parmi les fans de Bourdain. « Eh bien, c’est macabre » ; « C’est affreux » ; « WTF ?!», ont déclaré les gens sur Twitter, où la fausse voix de Bourdain est devenue un sujet tendance. Le critique Sean Burns, qui avait a évalué négativement le documentaire, a tweeté: « J’ai l’impression que cela vous dit tout ce que vous devez savoir sur l’éthique des personnes derrière ce projet. »

Lorsque j’ai parlé pour la première fois avec Neville, j’ai été surpris d’apprendre son utilisation de l’audio synthétique et également surpris qu’il ait choisi de ne pas divulguer sa présence dans son film. Il a admis avoir utilisé la technologie pour une voix off spécifique sur laquelle j’avais posé des questions – dans laquelle Bourdain lit improbablement à haute voix un e-mail désespéré qu’il a envoyé à un ami, l’artiste David Choe – mais n’a pas révélé les deux autres du documentaire. exemples de sorcellerie technologique. Créer une voix off synthétique Bourdain m’a semblé beaucoup moins grossier que, disons, un CGI Fred Astaire mettre au travail la vente d’aspirateurs dans une publicité Dirt Devil, ou un holographique Tupac Shakur se produisant aux côtés de Snoop Dogg à Coachella, et bien plus trivial que le mélange intentionnel de fiction et de non-fiction dans, par exemple, « Thin Blue Line » d’Errol Morris. Neville a utilisé l’audio généré par l’IA uniquement pour raconter le texte que Bourdain lui-même avait écrit. Bourdain composa les mots ; il ne les a simplement – au meilleur de notre connaissance – jamais prononcés à haute voix. Certains des critiques de Neville soutiennent que Bourdain devrait avoir le droit de contrôler la façon dont ses mots écrits sont prononcés. Mais une personne ne renonce-t-elle pas à ce contrôle chaque fois que son écriture sort dans le monde ? L’acte de lire, qu’il s’agisse d’un e-mail ou d’un roman, dans notre tête ou à haute voix, implique toujours un certain degré d’interprétation. J’étais plus troublé par le fait que Neville ait déclaré qu’il n’avait pas interviewé l’ancienne petite amie de Bourdain, Asia Argento, qui est décrite dans le film comme l’agent de son démêlage.

En outre, le film documentaire, comme l’écriture de non-fiction, est une catégorie large et lâche, englobant tout, de la vérité non éditée et non manipulée aux récits hautement construits et reconstruits. Le court métrage « The Sinking of the Lusitania » de Winsor McCay, un film de propagande, de 1918, qui est considéré comme l’un des premiers exemples de la forme documentaire animée, a été entièrement réalisé à partir de séquences reconstituées et recréées. « Valse avec Bashir », nominé aux Oscars d’Ari Folman en 2008, est un mémoire de guerre cinématographique raconté à travers l’animation, avec un narrateur peu fiable et avec l’inclusion de personnages entièrement fictifs. Vérité n’est « qu’une vérité superficielle, la vérité des comptables », Werner Herzog a écrit dans son célèbre manifeste « Déclaration du Minnesota ». « Il y a des couches de vérité plus profondes dans le cinéma, et il existe une vérité poétique et extatique. Il est mystérieux et insaisissable, et ne peut être atteint que par la fabrication, l’imagination et la stylisation. Dans le même temps, les « deepfakes » et autres médias synthétiques générés par ordinateur ont certaines connotations troublantes – machinations politiques, fausses nouvelles, mensonges portant le visage de la vérité en HD – et il est naturel pour les téléspectateurs et les cinéastes de remettre en question les limites. de son utilisation responsable. Le commentaire désinvolte de Neville, dans son interview avec moi, selon lequel « nous pouvons avoir un panel d’éthique documentaire à ce sujet plus tard », n’a pas aidé à assurer aux gens qu’il prenait ces questions au sérieux.

Vendredi, pour m’aider à dénouer l’enchevêtrement de questions éthiques et émotionnelles soulevées par les trois morceaux d’audio de « Roadrunner » (totalisant à peine quarante-cinq secondes), j’ai parlé à deux personnes qui seraient bien qualifiées pour le panel d’éthique hypothétique de Neville . Le premier, Sam Gregory, est un ancien cinéaste et directeur de programme de Witness, une organisation à but non lucratif de défense des droits humains qui se concentre sur les applications éthiques de la vidéo et de la technologie. « À certains égards, il s’agit d’une utilisation assez mineure d’une technologie de média synthétique », m’a-t-il dit. « Ce sont quelques lignes dans un genre où vous construisez parfois des choses, où il n’y a pas de normes fixes sur ce qui est acceptable. » Mais, a-t-il expliqué, la recréation de Neville, et la façon dont il l’a utilisée, soulèvent des questions fondamentales sur la façon dont nous définissons l’utilisation éthique des médias synthétiques.

Le premier concerne le consentement, et ce que Gregory a décrit comme notre « inquiétude » face à la manipulation de l’image ou de la voix d’une personne décédée. Dans l’interview de Neville avec GQ, il a dit qu’il avait poursuivi l’idée de l’IA avec le soutien du cercle restreint de Bourdain – « J’ai vérifié, vous savez, avec sa veuve et son exécuteur testamentaire, juste pour m’assurer que les gens étaient cool avec ça », a-t-il déclaré. Mais tôt vendredi matin, alors que la nouvelle de son utilisation de l’IA ricochait, son ex-femme Ottavia Busia a tweeté : « Je n’étais certainement PAS celui qui a dit que Tony aurait été cool avec ça. » Samedi après-midi, Neville m’a écrit que l’idée de l’IA « faisait partie de mon argumentaire initial consistant à demander à Tony de raconter le film à titre posthume à la Sunset Boulevard, l’un des films préférés de Tony et celui qu’il avait même reconstitué lors de la tournée de Cook », ajoutant : « Je ne voulais pas dire qu’Ottavia pensait que Tony aurait aimé ça. Tout ce que je sais, c’est que personne ne m’a jamais exprimé de réserves. (Busia m’a dit, dans un e-mail, qu’elle se souvenait de l’idée de l’IA lors d’une conversation initiale avec Neville et d’autres, mais qu’elle ne s’était pas rendu compte qu’elle avait été utilisée avant le début de la vague de médias sociaux. « Je crois que Morgan pensait qu’il avait la bénédiction de tout le monde pour aller de l’avant », a-t-elle écrit. « J’ai pris la décision de me retirer du processus dès le début parce que c’était tout simplement trop douloureux pour moi. »)

Un deuxième principe de base est la divulgation – comment l’utilisation des médias synthétiques est ou n’est pas expliquée clairement à un public. Gregory a évoqué l’exemple de « Bienvenue en Tchétchénie », le film, de 2020, sur des militants clandestins tchétchènes qui travaillent pour libérer les survivants des violentes purges anti-gay du pays. Le réalisateur du film, David France, s’est appuyé sur la technologie deepfake pour protéger l’identité des sujets du film en échangeant leurs visages contre d’autres, mais il a laissé un léger miroitement autour de la tête des militants pour alerter ses téléspectateurs de la manipulation – ce que Gregory a décrit comme un exemple de « signalisation créative ». « Ce n’est pas comme si vous deviez littéralement étiqueter quelque chose – ce n’est pas comme si vous deviez écrire quelque chose en bas de l’écran chaque fois que vous utilisez un outil synthétique – mais il est juste de rappeler au public qu’il s’agit d’une représentation », a-t-il déclaré. . « Si vous regardez un documentaire de Ken Burns, il n’est pas dit « reconstruction » au bas de chaque photo qu’il a animée. Mais il y a des normes et un contexte – essayer de penser, dans la nature du genre, comment nous pourrions montrer la manipulation d’une manière qui soit responsable envers le public et ne le trompe pas.

Gregory a suggéré qu’une grande partie de l’inconfort que les gens ressentent à propos de « Roadrunner » pourrait provenir de la nouveauté de la technologie. « Je ne suis pas sûr que ce soit vraiment ce que le réalisateur a fait dans ce film – c’est parce que cela nous amène à penser à la façon dont cela va se dérouler, en termes de normes de ce qui est acceptable, de nos attentes vis-à-vis des médias », a-t-il déclaré. mentionné. « Il se peut bien que dans quelques années nous soyons à l’aise avec cela, de la même manière que nous soyons à l’aise avec un narrateur lisant un poème ou une lettre de la guerre civile. »

« Il y a des utilisations créatives vraiment géniales pour ces outils », ma deuxième personne interrogée, Karen Hao, rédactrice à la Examen de la technologie du MIT qui se concentre sur l’intelligence artificielle, m’a dit. « Mais nous devons être très prudents quant à la façon dont nous les utilisons dès le début. » Elle a évoqué deux récents déploiements de technologie deepfake qu’elle considère comme un succès. Le premier, une collaboration 2020 entre artistes et entreprises d’IA, est une représentation synthétique audio-vidéo de Richard Nixon en lisant son tristement célèbre discours « En cas de catastrophe lunaire », qu’il aurait prononcé si la mission Apollo 11 avait échoué et que Neil Armstrong et Buzz Aldrin avaient péri. (« La première fois que je l’ai regardé, j’ai eu des frissons », a déclaré Hao.) Le second, un épisode de « Les Simpsons », de mars, dans lequel le personnage de Mme Krabappel, exprimé par la regrettée actrice Marcia Wallace, a été ressuscité en rassemblant des phonèmes d’enregistrements antérieurs, a réussi son test éthique décisif parce que, dans une émission de fiction comme « Les Simpsons », « vous savez que la voix de la personne ne représente pas eux, donc il y a moins d’attachement au fait que la voix puisse être fausse », a déclaré Hao. Mais, dans le contexte d’un documentaire, « vous ne vous attendez pas à voir soudainement de fausses séquences ou à entendre de faux sons ».

Un aspect particulièrement troublant du clone de la voix Bourdain, a spéculé Hao, pourrait être son hybridation de la réalité et de l’irréalité : « Ce n’est pas clairement truqué, ni clairement réel, et le fait qu’il a été ses vrais mots ne font qu’embrouiller cela encore plus.  » Dans le monde des médias de diffusion, les technologies deepfake et synthétiques sont les successeurs logiques des techniques de manipulation analogiques et numériques omniprésentes et plus discernables. Déjà, les rendus de visage et les clones de voix sont une technologie émergente dans les médias scénarisés, en particulier dans les productions à gros budget, où ils promettent de fournir une alternative aux effets pratiques laborieux et coûteux. Mais le potentiel de ces technologies est sapé « si nous les présentons au public de manière discordante », a déclaré Hao, ajoutant: « Cela pourrait inciter le public à avoir une perception plus négative de cette technologie que ce qui est peut-être mérité ». Le fait que la voix synthétique de Bourdain n’ait pas été détectée jusqu’à ce que Neville le fasse remarquer fait partie de ce qui la rend si énervante. « Je suis sûr que les gens se demandent, combien d’autres choses ai-je entendu là où je pensais que c’était vraiment réel, parce que c’est quelque chose que X dirait, et c’était en fait fabriqué ? » dit Hao. Pourtant, a-t-elle ajouté, « Je recommanderais aux gens de donner au gars » – Neville – « un peu de mou. C’est un territoire si frais. . . . C’est un terrain complètement nouveau. Personnellement, je serais enclin à lui pardonner d’avoir franchi une frontière qui n’existait pas auparavant.



#Léthique #dune #voix #deepfake #dAnthony #Bourdain #dans #Roadrunner

À propos de l\'auteur de l\'article

Dernières nouvelles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *