Le chercheur en intelligence artificielle Roman Yampolskiy estime la civilisation est menacée d’extinction en raison du développement de l’IA.
L’informaticien, qui se concentre sur la sécurité de l’IA et la cybersécurité à l’Université de Louisville, prévoit une probabilité stupéfiante de 99,9 % que l’intelligence artificielle va anéantir l’humanité au cours du siècle à venir, selon son apparition dans l’émission du podcasteur Lex Friedman publiée dimanche.
Tout au long de cette longue interview de deux heures, il a affirmé qu’aucun système d’IA lancé à ce jour ne s’est révélé sûr et a exprimé son pessimisme quant aux futures itérations évitant les failles critiques. Il rejoint un groupe restreint de développeurs pionniers de l’IA qui tirent la sonnette d’alarme pendant la présidence. Donald Trumple concours d’intelligence artificielle d’aujourd’hui.
Yampolskiy a publié l’année dernière un volume intitulé “IA: Unexplainable, Unpredictable, Uncontrollable”, décrit comme fournissant “une large introduction aux problèmes fondamentaux, tels que l’imprévisibilité des résultats de l’IA ou la difficulté d’expliquer les décisions de l’IA”.
“Ce livre aborde des questions plus complexes de propriété et de contrôle, en menant une analyse approfondie des dangers potentiels et des conséquences involontaires”, a-t-il déclaré.
“Le livre se termine ensuite par des considérations philosophiques et existentielles, abordant les questions de la personnalité de l’IA, de la conscience et de la distinction entre l’intelligence humaine et l’intelligence artificielle générale (AGI).”
Les experts en technologie observent que les pionniers de l’IA, y compris Yampolskiy, sont parmi ceux qui ont lancé les avertissements les plus sévères sur les conséquences dévastatrices et apocalyptiques potentielles que ces progrès technologiques pourraient entraîner.
Néanmoins, certaines recherches remettent en question la prévision d’extinction de Yampolskiy, indiquant une menace nettement inférieure à ce que suggèrent ses calculs.
Des recherches menées par l’Université d’Oxford en Angleterre et de Bonn en Allemagne ont révélé qu’il n’y a qu’une probabilité de 5 % que l’IA élimine l’humanité, sur la base des évaluations de plus de 2 700 chercheurs en IA.
“Les gens essaient de parler comme si s’attendre à un risque d’extinction était une opinion minoritaire, alors que parmi les experts en IA, cette opinion est dominante”, prévient Katja Grace, l’une des auteurs de l’article. “Le désaccord semble être de savoir si le risque est de 1 % ou de 20 %.”
Plusieurs grands spécialistes de l’IA ont complètement rejeté les affirmations selon lesquelles l’IA provoquerait une situation apocalyptique, notamment le cofondateur de Google Brain, Andrew Ng, et le pionnier de l’IA, Yann Lecun, ce dernier accusant des leaders technologiques tels que Sam Altman d’OpenAI d’avoir des intentions cachées derrière leur rhétorique alarmiste sur les résultats catastrophiques de l’IA.
Altman d’OpenAI a fait de nombreuses déclarations troublantes concernant son industrie. Il a averti que l’IA détruirait probablement d’innombrables emplois, qu’il a qualifiés de « n’est pas du vrai travail », des commentaires qui ont suscité de vives critiques.
Reflétant les prévisions d’Altman, de nombreux sceptiques en matière d’IA ont également averti que la technologie pourrait déclencher une catastrophe économique, remplaçant d’innombrables travailleurs dans tous les secteurs sans exception.
Il y a plus de dix ans, en 2015, Altman déclarait de façon menaçante : « L’IA mènera probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises. »
Il a également rencontré de vives réactions en déclarant plus tôt cette année que l’adoption généralisée de l’IA nécessiterait « des changements dans le contrat social ».


