La divergence des points de vue autour de ces technologies rend urgente l’élaboration d’une réglementation nationale.
L’intense bataille entre le Pentagone et Anthropic a fait naître un débat public inédit aux États-Unis sur le rôle de l’intelligence artificielle (IA) et, plus généralement, sur la question du contrôle de ces technologies très puissantes. Il y a un an, cette entreprise américaine d’IA a obtenu un contrat de 200 millions de dollars pour intégrer ses puissants modèles Claude dans les systèmes de l’armée américaine et aider cette dernière à analyser du renseignement, simuler et planifier des opérations, identifier des cibles… Anthropic avait cependant fixé deux « lignes rouges » à l’utilisation de ses technologies : Claude ne devait pas être utilisé pour des armes autonomes destinées à tirer sans supervision humaine ni pour de la surveillance de masse des Américains.
Le ministère de la Défense avait accepté ces conditions, avant de faire machine arrière. Il a estimé que cette ingérence inacceptable risquait d’entraver ses décisions et a exigé un accès sans restrictions aux systèmes de l’entreprise, dans le respect de la loi. Le PDG d’Anthropic, Dario Amodei a refusé. En représailles, le ministère de la Défense a pris une mesure inédite contre une entreprise américaine : Anthropic a été désigné comme « à risque pour la sécurité nationale »...






































