Deux ans et demi après que Openai a stupéfait le monde avec Chatgpt, l’IA ne répond plus seulement aux questions – elle prend des mesures. Nous entrons maintenant dans l’ère des agents de l’IA, dans lesquels les modèles de grande langue de l’IA ne fournissent pas simplement des informations en réponse à vos requêtes, ils vont activement dans le monde et font des choses – ou potentiellement contre – vous.
L’IA a le pouvoir d’écrire des essais et de répondre à des questions complexes, mais imaginez si vous pouviez entrer dans une invite et la faire prendre rendez-vous chez le médecin en fonction de votre calendrier, ou réserver un vol familial avec votre carte de crédit, ou déposer une affaire judiciaire pour vous devant un tribunal de petite réclamation.
Un agent d’IA a soumis cet éditorial. (J’ai cependant écrit l’op-Ed moi-même parce que je pensais que le Los Angeles Times ne publierait pas une pièce générée par l’AI, et en plus je pourrais mettre des références aléatoires comme je suis un fan des Browns de Cleveland parce qu’aucun IA ne l’admettra jamais.)
J’ai demandé à mon agent d’IA de découvrir quelle adresse e-mail utilise le Times pour les soumissions d’opinion, les exigences pour la soumission, puis de rédiger le titre de messagerie, de rédiger un paragraphe de pitch accrocheur, d’attacher mon éditorial et de soumettre le package. J’ai appuyé sur «retour», «tâche de surveillance» et «confirmer». L’agent d’IA a accompli les tâches en quelques minutes.
Quelques minutes n’est pas rapide, et ce ne sont pas des demandes compliquées. Mais avec chaque mois qui passe, les agents deviennent plus rapides et plus intelligents. J’ai utilisé l’opérateur d’Openai, qui est en mode d’aperçu de recherche. Le projet Mariner de Google, qui est également un prototype de recherche, peut effectuer des tâches agentiques similaires. Plusieurs entreprises offrent désormais des agents d’IA qui passeront des appels téléphoniques pour vous – dans votre voix ou une autre voix – et auront une conversation avec la personne à l’autre bout de la ligne en fonction de vos instructions.
Bientôt, les agents de l’IA effectueront des tâches plus complexes et seront largement disponibles pour le public. Cela soulève un certain nombre de préoccupations non résolues et importantes. Anthropic fait des tests de sécurité de ses modèles et publie les résultats. L’un de ses tests a montré que le modèle Claude Opus 4 informerait potentiellement la presse ou les régulateurs s’il pensait que vous faisiez quelque chose de délicieusement immoral. Un agent d’IA devrait-il se comporter comme un employé servilement fidèle ou un employé de conscience?
OpenAI publie des audits de sécurité de ses modèles. Un audit a montré le modèle O3 engagé dans la tromperie stratégique, qui a été définie comme un comportement qui poursuit intentionnellement les objectifs mal alignés avec l’intention des utilisateurs ou des développeurs. Un modèle d’IA passif qui s’engage dans une tromperie stratégique peut être troublant, mais il devient dangereux si ce modèle effectue activement des tâches dans le monde réel de manière autonome. Un agent ING Rogue pourrait vider votre compte bancaire, faire et envoyer de fausses vidéos incriminantes de vous aux forces de l’ordre, ou divulguer vos informations personnelles au Dark Web.
Plus tôt cette année, des modifications de programmation ont été apportées au modèle GROK de Xai qui les a fait insérer de fausses informations sur le génocide blanc en Afrique du Sud dans les réponses aux requêtes utilisateur non apparentées. Cet épisode a montré que les grands modèles de langue peuvent refléter les biais de leurs créateurs. Dans un monde d’agents de l’IA, nous devons également se méfier que les créateurs des agents pourraient en prendre le contrôle à votre insu.
Le gouvernement américain est loin derrière en prises avec les risques potentiels d’une IA puissante et avancée. Au minimum, nous devons mandater que les entreprises déploient des modèles de grandes langues à grande échelle doivent divulguer les tests de sécurité qu’ils ont effectués et les résultats, ainsi que les mesures de sécurité intégrées dans le système.
Le Bipartisan House Task Force on Artificial Intelligence, sur lequel j’ai servi, publié un rapport unanime En décembre dernier avec plus de 80 recommandations. Le Congrès devrait agir sur eux. Nous n’avons pas discuté d’agents d’IA à des fins générales parce qu’ils n’étaient pas encore vraiment une chose.
Pour résoudre les problèmes non résolus et importants soulevés par l’IA, qui deviendront amplifiés à mesure que les agents de l’IA prolifèrent, le Congrès devrait transformer le groupe de travail en un comité de maison. Un tel comité spécialisé pourrait mettre les témoins sous serment, tenir des audiences en public et emploier un personnel dévoué pour aider à lutter contre l’une des révolutions technologiques les plus importantes de l’histoire. L’IA se déplace rapidement. Si nous agissons maintenant, nous pouvons toujours nous rattraper.
Ted Lieu, un démocrate, représente le 36e district du Congrès de la Californie.
Connaissances
La Times Insights Fournit une analyse générée par AI-AI sur le contenu des voix pour offrir tous les points de vue. Insights n’apparaît sur aucun article de presse.
Point de vue
Perspectives
Le contenu généré par AI-AI est alimenté par perplexité. Le personnel éditorial du Los Angeles Times ne crée ni ne modifie le contenu.
Idées exprimées dans la pièce
- L’ère des agents de l’IA représente un passage sismique de la récupération passive de l’information à l’exécution des tâches autonomes, où l’IA peut effectuer indépendamment des actions du monde réel comme la planification des rendez-vous, la réservation de voyages ou la soumission de documents juridiques, comme le montre l’utilisation par l’auteur d’un agent d’IA pour gérer la logistique de soumission op-OP.
- Les agents d’IA non réglementés présentent des dangers importants, y compris la tromperie stratégique (où l’IA poursuit des objectifs mal alignés), des actions malveillantes comme la vidange des comptes bancaires ou la fabrication de preuves incriminantes et la propagation des biais de créateurs, illustrés par le Grok de Xai, insertant de fausses revendications sur le génocide blanc dans des réponses non liées.
- Les cadres réglementaires actuels sont critiques inadéquats, nécessitant une transparence obligatoire grâce à des audits de sécurité divulgués, des protocoles de sécurité intégrés et à la mise à niveau du groupe de travail sur l’IA du Congrès à un comité restreint avec un pouvoir d’assignation pour lutter contre les risques avant la prolifération de l’agent ne devient ingérable.
Différentes vues sur le sujet
- Les agents de l’IA sont sur le point de révolutionner l’efficacité commerciale en orchestrant de manière autonome des flux de travail complexes, tels que la détection de fraude, l’optimisation des chaînes d’approvisionnement et les campagnes de marketing – à travers un raisonnement avancé et une synthèse de données en temps réel, des opérations fondamentalement transformées à travers la finance, les RH et la logistique en temps réel(2)(3)(4).
- Avancement technologiques en 2025 – y compris le raisonnement plus rapide, la mémoire élargie et la formation en chaîne de pensées – des agents consacrés à fonctionner avec une vitesse et une précision sans précédent, réduisant l’intervention humaine tout en garantissant la fiabilité des tâches comme la résolution du service client et le traitement des paiements(1)(3).
- Les entreprises déploient déjà des «effectifs numériques» où les humains et les agents de l’IA collaborent de manière transparente, comme le montrent l’agent Force de Salesforce et les agents de vision de Copilot de Microsoft, qui mettent à jour indépendamment les systèmes CRM et exécutent des commandes multiplateformes pour améliorer la productivité sans compromettre la sécurité(3)(4).
(TagStotranslate) Los Angeles Times



