Un leader politique furieux criant un message de haine à un public adorant. Un enfant pleurant sur le massacre de sa famille. Les hommes émaciés en uniformes de prison, affamés au bord de la mort en raison de leur identité. Lorsque vous lisez chaque phrase, des images spécifiques apparaissent probablement dans votre esprit, saisies dans votre mémoire et notre conscience collective à travers des documentaires et des manuels, des médias d’information et des visites de musée.
Nous comprenons l’importance d’images historiques importantes comme celles-ci – des images dont nous devons apprendre pour aller de l’avant – en grande partie parce qu’ils ont capturé quelque chose de vrai dans le monde lorsque nous n’étions pas là pour le voir de nos propres yeux.
En tant que producteurs d’archives pour les films documentaires et les codirecteurs de la Archival Producers Alliance, nous sommes profondément préoccupés par ce qui pourrait arriver lorsque nous ne pouvons plus croire que de telles images reflètent la réalité. Et nous ne sommes pas les seuls: avant Les Oscars de cette annéeVariety a rapporté que l’Académie cinématographique envisage exiger des prétendants Pour divulguer l’utilisation de l’IA générative.
Bien qu’une telle divulgation puisse être importante pour les longs métrages, il est clairement crucial pour les documentaires. Au printemps 2023, nous avons commencé à voir des images synthétiques et un son utilisé dans les documentaires historiques sur lesquels nous travaillions. Sans aucune norme en place pour la transparence, nous craignons que ce marchand de réels et d’irréels puisse compromettre le genre non fictionnel et le rôle indispensable qu’il joue dans notre histoire partagée.
En février 2024, Openai a présenté en avant-première sa nouvelle plate-forme de texte à vidéo, Sora, avec un clip appelé «Des images historiques de la Californie pendant la ruée vers l’or.«La vidéo était convaincante: un flux fluide rempli de la promesse de richesse. Un ciel bleu et des collines vallonnées. Une ville florissante. Hommes à cheval. Cela ressemblait à un occidental où le bon gars gagne et s’enfonce au coucher du soleil. Il regarder authentique, Mais c’était faux.
OpenAI a présenté «des images historiques de la Californie pendant la ruée vers l’or» pour démontrer comment Sora, officiellement publié en décembre 2024, crée des vidéos basées sur des invites utilisateur utilisant l’IA qui «comprend et simule la réalité». Mais ce clip n’est pas la réalité. C’est un mélange aléatoire d’imagerie à la fois réel et imaginé par Hollywood, ainsi que les préjugés historiques de l’industrie et les archives. Sora, comme d’autres programmes d’IA génératifs tels que Runway et Luma Dream Machine, arrache le contenu d’Internet et d’autres matériaux numériques. En conséquence, ces plateformes recyclent simplement les limites des médias en ligne, et sans aucun doute amplifier les biais. Pourtant, en le regardant, nous comprenons comment un public pourrait être dupe. Le cinéma est puissant de cette façon.
Certains dans le monde du cinéma ont rencontré l’arrivée d’outils d’IA génératifs à bras ouverts. Nous et les autres le voyons comme quelque chose de profondément troublant à l’horizon. Si notre foi dans la véracité des visuels est brisée, des films puissants et importants pourraient perdre leur affirmation sur la vérité, même s’ils n’utilisent pas de matériel généré par l’AI.
La transparence, quelque chose qui ressemble à l’étiquetage des aliments qui informe les consommateurs de ce qui se passe dans les choses qu’ils mangent, pourrait être un petit pas en avant. Mais aucune réglementation de la divulgation de l’IA ne semble être au-dessus de la prochaine colline, venant nous sauver.
Les entreprises génératrices d’IA promettent un monde où n’importe qui peut créer du matériel audiovisuel. Ceci est profondément préoccupant lorsqu’il est appliqué aux représentations de l’histoire. La prolifération des images synthétiques rend le travail de documentariens et de chercheurs – protéger l’intégrité du matériau source primaire, creuser dans les archives, présenter l’histoire avec précision – encore plus urgente. C’est un travail humain qui ne peut pas être reproduit ou remplacé. Il suffit de se tourner vers le documentaire nominé aux Oscars de cette année «Sugarcane» pour voir le pouvoir de recherches minutieuses, d’images archivistiques précises et de récit personnel bien rapporté pour exposer des histoires cachées, dans ce cas sur l’abus des enfants des Premières nations dans les écoles résidentielles canadiennes.
La vitesse à laquelle de nouveaux modèles d’IA sont publiés et de nouveaux contenus sont produits rendent la technologie impossible à ignorer. Bien qu’il puisse être amusant d’utiliser ces outils pour imaginer et tester, quels résultats ne sont pas un véritable travail de documentation – des humains témoignant. Ce n’est qu’un remix.
En réponse, nous avons besoin d’une littératie des médias IA robuste pour notre industrie et le grand public. À la Archival Producers Alliance, nous avons publié un ensemble de lignes directrices – approuvé par plus de 50 organisations de l’industrie – pour l’utilisation responsable de l’IA générative dans le film documentaire, les pratiques que nos collègues commencent à intégrer dans leur travail. Nous avons également lancé un appel à des études de cas sur l’utilisation de l’IA dans le film documentaire. Notre objectif est d’aider l’industrie cinématographique à s’assurer que les documentaires mériteront ce titre et que la mémoire collective qu’ils informent seront protégées.
Nous ne vivons pas dans un occidental classique; Personne ne vient nous sauver de la menace d’une IA générative non réglementée. Nous devons travailler individuellement et ensemble pour préserver l’intégrité et diverses perspectives de notre histoire réelle. Des enregistrements visuels précis ne documentent pas seulement ce qui s’est passé dans le passé, ils nous aident à le comprendre, à apprendre ses détails et – peut-être surtout en ce moment historique – croire il.
Lorsque nous ne pouvons plus assister avec précision aux hauts et aux bas de ce qui a précédé, l’avenir que nous partageons pourrait être un peu plus qu’un remix aléatoire.
Rachel Antell, Stephanie Jenkins et Jennifer Petrucelli sont codirecteurs de la Archival Producers Alliance.
(Tagstotranslate) Documentaire non réglementé de l’AI



