Google a discrètement abandonné sa promesse de longue date de ne pas utiliser l’intelligence artificielle pour les armes, déclarant que les «pays libres» devraient être en mesure d’exploiter la technologie à des fins de sécurité nationale.
Le changement de politique est apparu lorsque deux personnalités seniors, James Manyika (vice-présidente senior de Google-Alphabet) et Sir Demis Hassabis (chef de la direction de Google Deepmind), ont co-écrit un article de blog confirmant l’engagement du géant de la technologie à «soutenir la sécurité nationale» dans Une race géopolitique de plus en plus tendue pour le leadership de l’IA.
La nouvelle position marque un renversement de l’assurance 2018 de Google qu’elle n’utiliserait jamais Outils d’IA «Dont le principal objectif ou la mise en œuvre est de provoquer ou de faciliter directement les blessures aux personnes». Ce vœu a été adopté après que le personnel s’est promené pour protester contre un projet de drone du Pentagone. Dans le sillage de la dernière annonce, les critiques soutiennent que Google risque de saper ses valeurs, notant que la société a également supprimé sa devise «Ne soyez pas mal» de son code de conduite lorsqu’il se restructurait sous l’alphabet de l’entité parentale en 2015.
Manyika et Hassabis ont justifié le changement en mettant en évidence le rythme accéléré de l’innovation de l’IA et en pointant la menace posée par l’intérêt militaire croissant de la Chine pour la technologie. Pékin a affecté l’IA comme la future «révolution dans les affaires militaires» et utiliserait la technologie pour développer des systèmes d’armes autonomes avancés. Deepseek, un chatbot d’IA développé par le chinois, a déjà obtenu des résultats qui, dans certains tests, dépassent les concurrents occidentaux, alimentant les préoccupations d’un «moment Sputnik» dans le secteur.
Depuis le début de l’IA générative, Google a fait face à des conflits internes sur ses liens vers le secteur de la défense. En 2018, le personnel a demandé aux dirigeants de se retirer d’une initiative américaine de drones militaires. Il y a également eu des frictions sur des partenariats avec des gouvernements étrangers, notamment en Israël. Ajoutant au débat, Geoffrey Hinton – surnommé le «parrain de l’IA» – a quitté Google en 2023, avertissant que la technologie pourrait un jour menacer l’humanité elle-même.
Alors que les critiques déplorent l’ascension apparente de Google, les chefs d’entreprise soutiennent que les démocraties doivent conduire dans le développement de l’IA. Ils soutiennent que la collaboration entre les entreprises, les gouvernements et les organisations qui «partagent ces valeurs» aideront à garantir que l’IA est exploitée de manière responsable – y compris pour la défense nationale.

Jamie Young
Jamie est journaliste principal chez Business Matters, apportant plus d’une décennie d’expérience dans les rapports commerciaux des PME britanniques. Jamie est titulaire d’un diplôme en administration des affaires et participe régulièrement aux conférences et ateliers de l’industrie. Lorsqu’il ne fait pas rapport sur les derniers développements commerciaux, Jamie est passionné par le mentorat de journalistes et d’entrepreneurs émergents pour inspirer la prochaine génération de chefs d’entreprise.