Opinion : L’IA pourrait bientôt acquérir la capacité de ressentir. Comment devons-nous nous préparer ?

Share on facebook
Share on twitter
Share on linkedin
Share on email

Qu’il s’agisse des assistants virtuels de nos téléphones, des chatbots qui assurent le service client des banques et magasins de vêtementsou outils à l’instar de ChatGPT et Claude qui allègent un peu les charges de travail, l’intelligence artificielle s’est rapidement imposée dans notre quotidien. Nous avons tendance à supposer que nos robots ne sont rien d’autre que des machines, qu’ils n’ont aucune pensée spontanée ou originale, et certainement aucun sentiment. Il semble presque ridicule d’imaginer le contraire. Mais dernièrement, c’est exactement ce que les experts en IA nous demandent de faire.

Eleos AI, une organisation à but non lucratif dédiée à l’exploration des possibilités de la sensibilité de l’IA – ou la capacité de ressentir – et du bien-être, a publié un rapport en octobre en partenariat avec le NYU Center for Mind, Ethics and Policy, intitulé « Prendre au sérieux le bien-être de l’IA ». Dans ce document, ils affirment que l’IA atteignant la sensibilité est quelque chose qui pourrait réellement se produire dans un avenir pas trop lointain – dans environ une décennie. Par conséquent, affirment-ils, nous avons un impératif moral de commencer à réfléchir sérieusement au bien-être de ces entités.

Je suis d’accord avec eux. Il ressort clairement du rapport que contrairement à un rocher ou à une rivière, les systèmes d’IA auront bientôt certaines caractéristiques qui rendront la conscience plus probable en leur sein – des capacités telles que la perception, l’attention, l’apprentissage, la mémoire et la planification.

Cela dit, je comprends aussi le scepticisme. L’idée selon laquelle toute entité non organique aurait sa propre expérience subjective est ridicule pour beaucoup, car on pense que la conscience est exclusive aux êtres basés sur le carbone. Mais comme le soulignent les auteurs du rapport, il s’agit plus d’une croyance que d’un fait démontrable – simplement d’une sorte de théorie de la conscience. Certaines théories impliquent que le matériel biologique est nécessaire, d’autres suggèrent qu’elles ne le sont pas, et nous n’avons actuellement aucun moyen de savoir avec certitude laquelle est correcte. La réalité est que l’émergence de la conscience pourrait dépendre de la structure et de l’organisation d’un système plutôt que de sa composition chimique spécifique.

Le concept central des conversations sur la sensibilité de l’IA est un concept classique dans le domaine de la philosophie éthique : l’idée du «cercle moral», décrivant les types d’êtres auxquels nous accordons une considération éthique. L’idée a été utilisée pour décrire de qui et de quoi une personne ou une société se soucie, ou, du moins, de qui elle devrait se soucier. Historiquement, seuls les humains étaient inclus, mais au fil du temps, de nombreuses sociétés ont introduit certains animaux dans le cercle, en particulier les animaux de compagnie comme les chiens et les chats. Cependant, de nombreux autres animaux, tels que ceux élevés dans l’agriculture industrielle comme les poulets, les porcs et les vaches, sont encore largement laissés pour compte.

De nombreux philosophes et organisations consacrés à l’étude de la conscience de l’IA sont issus du domaine des études animales et plaident essentiellement pour étendre la ligne de pensée aux entités non organiques, y compris les programmes informatiques. S’il est réaliste que quelque chose puisse devenir quelqu’un qui souffre, il serait moralement négligent de notre part de ne pas réfléchir sérieusement à la manière dont nous pouvons éviter d’infliger cette douleur.

Un cercle moral en expansion exige une cohérence éthique et rend difficile la création d’exceptions fondées sur des préjugés culturels ou personnels. Et pour l’instant, seuls ces préjugés nous permettent d’ignorer les possibilité de l’IA sensible. Si nous sommes moralement cohérents et que nous nous soucions de minimiser la souffrance, cette préoccupation doit s’étendre à de nombreux autres êtres, y compris insectes, microbes et peut-être quelque chose dans nos futurs ordinateurs.

Même s’il n’y a qu’une infime chance que l’IA puisse développer la sensibilité, il y en a tellement. »animaux numériques” là-bas, les implications sont énormes. Si chaque téléphone, ordinateur portable, assistant virtuel, etc. avait un jour sa propre expérience subjective, il pourrait y avoir des milliards d’entités soumises à la douleur de la part des humains, alors que beaucoup d’entre nous fonctionnent en supposant que ce n’est même pas possible dans la première place. Ce ne serait pas la première fois que des gens seraient confrontés à des dilemmes éthiques en se disant, ainsi qu’aux autres, que les victimes de leurs pratiques je ne peux tout simplement pas faire l’expérience des choses aussi profondément que vous ou moi.

Pour toutes ces raisons, les dirigeants d’entreprises technologiques comme OpenAI et Google devraient commencer à prendre au sérieux le bien-être possible de leurs créations. Cela pourrait signifier embaucher un chercheur en bien-être en IA et développer des cadres pour estimer la probabilité de sensibilité dans leurs créations. Si les systèmes d’IA évoluent et acquièrent un certain niveau de conscience, la recherche déterminera si leurs besoins et priorités sont similaires ou différents de ceux des humains et des animaux, ce qui éclairera à quoi devraient ressembler nos approches en matière de protection.

Peut-être viendra-t-il un jour dans le futur où nous aurons des preuves largement acceptées que les robots peuvent effectivement penser et ressentir. Mais si nous attendons ne serait-ce que d’envisager l’idée, imaginez toutes les souffrances qui se seront produites entre-temps. À l’heure actuelle, alors que l’IA est à un stade prometteur mais encore relativement naissant, nous avons la possibilité de prévenir d’éventuels problèmes éthiques avant qu’ils ne se propagent plus en aval. Profitons de cette occasion pour construire une relation avec la technologie que nous ne regretterons pas. Juste au cas où.

Brian Kateman est co-fondateur de la Reductiontarian Foundation, une organisation à but non lucratif dédiée à la réduction de la consommation sociétale de produits d’origine animale. Son dernier livre et documentaire est «Viande-moi à mi-chemin

À suivre