Trois Européens sur quatre soutiennent l’utilisation de l’IA par la police et l’armée

Share on facebook
Share on twitter
Share on linkedin
Share on email

Peter Cadé | Pierre | Getty Images

La grande majorité des Européens soutiennent l’utilisation de l’intelligence artificielle pour les opérations policières et militaires, selon un nouveau rapport de l’Université IE de Madrid partagé avec CNBC.

“European Tech Insights”, qui a mesuré les attitudes de plus de 3 000 personnes en Europe, a révélé que 75 % d’entre elles soutiennent l’utilisation de technologies d’IA telles que la reconnaissance faciale et les données biométriques par la police et l’armée à des fins de surveillance.

L’ampleur de ce soutien est peut-être surprenante, dans la mesure où l’Europe possède certaines des réglementations en matière de confidentialité des données les plus strictes au monde. En 2018, l’Union européenne a introduit le Règlement Général sur la Protection des Données, ou RGPD — un cadre qui régit la manière dont les organisations stockent et traitent les informations des utilisateurs.

Les entreprises s’exposent à de lourdes amendes en cas de violation des règles. Une entreprise qui enfreint les lois du RGPD peut être condamnée à une amende pouvant aller jusqu’à 4 % de son chiffre d’affaires mondial annuel, soit 20 millions d’euros (21,7 millions de dollars), le montant le plus élevé étant retenu.

“Il n’est pas clair que le public ait réfléchi aux ramifications de ces applications (IA)”, a déclaré à CNBC Ikhlaq Sidhu, doyen de l’École des sciences et technologies de l’Université IE.

Le niveau de soutien à l’utilisation de l’IA dans les tâches de service public, telles que l’optimisation du trafic, était encore plus élevé, selon le rapport, s’établissant à 79 %.

Cependant, lorsqu’il s’agit de questions sensibles, comme les décisions de libération conditionnelle, la plupart des Européens (64 %) s’opposent à l’utilisation de l’IA.

Manipulation des élections par l’IA

Malgré le soutien à l’IA dans les domaines de l’administration publique et de la sécurité, les gens semblent beaucoup plus préoccupés par son rôle dans le processus démocratique.

Le rapport de l’Université IE révèle que la grande majorité des Européens (67 %) craignent la manipulation de l’IA lors des élections.

L’IA peut être utilisée comme un amplificateur de désinformation, certains utilisateurs essayant délibérément d’utiliser de fausses informations pour subvertir les opinions des autres. L’une des principales préoccupations est que les « deepfakes », images synthétiques, vidéos ou clips audio créés à l’aide de l’IA, pourraient être utilisés pour déformer les opinions des politiciens ou diffuser d’autres types de désinformation.

Les plates-formes d’IA générative, telles que Dall-E d’OpenAI et Midjourney de Stability AI, peuvent être utilisées pour créer des images avec seulement quelques lignes d’invites de texte, par exemple. CNBC a contacté OpenAI et Stability pour commentaires.

“L’IA et les deep fakes sont les derniers exemples d’une tendance à la désinformation et à la perte de vérifiabilité”, a déclaré Sidhu à CNBC. “Cette tendance s’est accentuée depuis le début d’Internet, des médias sociaux et des algorithmes de recherche basés sur l’IA.”

En effet, selon le rapport, quelque 31 % des Européens pensent que l’IA a déjà influencé leurs décisions de vote. Cela survient alors que les élections américaines de 2024 approchent à grands pas, l’actuelle vice-présidente Kamala Harris se présentant contre l’ancien président Donald Trump lors du vote prévu le 5 novembre.

Fracture générationnelle

Le rapport de l’Université IE révèle également un fossé générationnel en matière d’IA en Europe.

Environ un tiers (34 %) des personnes âgées de 18 à 34 ans feraient confiance à une application basée sur l’IA pour voter en leur nom pour des politiciens. Ce chiffre tombe à 29 % pour les personnes âgées de 35 à 44 ans et à seulement 9 % pour les personnes âgées de 65 ans et plus.

À suivre