OpenAI dévoile un nouveau modèle d’IA doté de capacités de raisonnement proches de celles de l’homme

Share on facebook
Share on twitter
Share on linkedin
Share on email

OpenAI a lancé son dernier modèle d’intelligence artificielle, la série o1, qui, selon la société, possède des capacités de raisonnement similaires à celles de l’homme.

Dans un article de blog récent, le créateur de ChatGPT a expliqué que le nouveau modèle passe plus de temps à réfléchir avant de répondre aux requêtes, ce qui lui permet de s’attaquer à des tâches complexes et de résoudre des problèmes plus difficiles dans des domaines comme les sciences, le codage et les mathématiques.

La série o1 est conçue pour simuler un processus de réflexion plus délibéré, en affinant ses stratégies et en reconnaissant ses erreurs, comme le ferait un humain. Mira Murati, directrice technique d’OpenAI, a décrit le nouveau modèle comme une avancée significative dans les capacités de l’IA, prédisant qu’il changera fondamentalement la façon dont les gens interagissent avec ces systèmes. « Nous verrons une forme de collaboration plus approfondie avec la technologie, semblable à une conversation en va-et-vient qui aide au raisonnement », a déclaré Murati.

Alors que les modèles d’IA existants sont connus pour leurs réponses rapides et intuitives, la série o1 introduit une approche du raisonnement plus lente et plus réfléchie, ressemblant aux processus cognitifs humains. Murati s’attend à ce que le modèle soit à l’origine de progrès dans des domaines tels que la science, la santé et l’éducation, où il peut aider à explorer des dilemmes éthiques et philosophiques complexes, ainsi que le raisonnement abstrait.

Mark Chen, vice-président de la recherche à OpenAIa noté que les premiers tests effectués par des codeurs, des économistes, des chercheurs hospitaliers et des physiciens quantiques ont démontré que la série o1 résout mieux les problèmes que les modèles d’IA précédents. Selon Chen, un professeur d’économie a fait remarquer que le modèle pouvait résoudre une question d’examen de niveau doctorat « probablement mieux que n’importe lequel des étudiants ».

Toutefois, le nouveau modèle présente des limites : sa base de connaissances ne s’étend que jusqu’en octobre 2023 et il ne permet pas actuellement de naviguer sur le Web ou de télécharger des fichiers et des images.

Le lancement intervient alors qu’OpenAI serait en pourparlers pour lever 6,5 milliards de dollars à une valorisation stupéfiante de 150 milliards de dollars, avec le soutien potentiel d’acteurs majeurs comme Apple, Nvidia et Microsoft, selon Actualités Bloomberg. Cette valorisation placerait OpenAI bien devant ses concurrents, notamment Anthropic, récemment valorisé à 18 milliards de dollars, et xAI d’Elon Musk à 24 milliards de dollars.

Le développement rapide de l’IA générative avancée a suscité des inquiétudes parmi les gouvernements et les technologues en matière de sécurité, en raison des implications sociétales plus larges. OpenAI elle-même a fait l’objet de critiques internes pour avoir donné la priorité aux intérêts commerciaux au détriment de sa mission initiale de développement de l’IA au profit de l’humanité. L’année dernière, le PDG Sam Altman a été temporairement évincé par le conseil d’administration en raison des inquiétudes selon lesquelles l’entreprise s’éloignait de ses objectifs fondateurs, un événement appelé en interne « le blip ».

En outre, plusieurs responsables de la sécurité, dont Jan Leike, ont quitté l’entreprise, invoquant un changement d’orientation de la sécurité vers la commercialisation. Leike a averti que « construire des machines plus intelligentes que les humains est une entreprise intrinsèquement dangereuse » et s’est inquiété du fait que la culture de la sécurité chez OpenAI ait été mise à l’écart.

En réponse à ces critiques, OpenAI a annoncé une nouvelle approche de formation à la sécurité pour la série o1, exploitant ses capacités de raisonnement améliorées pour garantir le respect des directives de sécurité et d’alignement. La société a également formalisé des accords avec des instituts de sécurité de l’IA aux États-Unis et au Royaume-Uni, leur accordant un accès anticipé aux versions de recherche du modèle pour renforcer les efforts de collaboration visant à protéger le développement de l’IA.

Alors qu’OpenAI avance avec ses dernières innovations, la société vise à équilibrer la poursuite du progrès technologique avec un engagement renouvelé envers la sécurité et les considérations éthiques dans le déploiement de l’IA.


Jamie Young

Jamie Young

Jamie est un journaliste d’affaires chevronné et reporter principal chez Business Matters, avec plus d’une décennie d’expérience dans le reportage sur les PME britanniques. Jamie est titulaire d’un diplôme en administration des affaires et participe régulièrement à des conférences et ateliers sectoriels pour rester à la pointe des tendances émergentes. Lorsqu’il ne rend pas compte des derniers développements commerciaux, Jamie est passionné par le mentorat des journalistes et entrepreneurs en devenir, partageant leurs connaissances pour inspirer la prochaine génération de chefs d’entreprise.


À suivre