
Les principaux développeurs d'IA, tels qu'OpenAI et Anthropic, jonglent avec subtilité pour vendre des logiciels à l'armée des États-Unis : rendre le Pentagone plus efficace, sans laisser leur IA tuer des gens.
Aujourd'hui, leurs outils ne sont pas utilisés comme des armes, mais l'IA donne au Département de la Défense un 'avantage significatif' pour identifier, suivre et évaluer les menaces, a déclaré la directrice du numérique et de l'IA du Pentagone, Dr. Radha Plumb, dans une interview téléphonique avec TechCrunch.
« Nous augmentons évidemment les moyens par lesquels nous pouvons accélérer l'exécution de la chaîne de destruction afin que nos commandants puissent répondre au bon moment pour protéger nos forces », a déclaré Plumb.
La 'chaîne de destruction' fait référence au processus militaire d'identification, de suivi et d'élimination des menaces, impliquant un système complexe de capteurs, de plateformes et d'armes. L'IA générative s'avère utile pendant les phases de planification et de stratégie de la chaîne de destruction, selon Plumb.
La relation entre le Pentagone et les développeurs d'IA est relativement nouvelle. OpenAI, Anthropic et Meta ont assoupli leurs politiques d'utilisation en 2024 pour permettre aux agences de renseignement et de défense américaines d'utiliser leurs systèmes d'IA. Cependant, ils ne permettent toujours pas à leur IA de nuire aux êtres humains.
« Nous avons été très clairs sur ce que nous utiliserons et ne pas utiliserons leurs technologies », a déclaré Plumb, interrogée sur la façon dont le Pentagone travaille avec les fournisseurs de modèles d'IA.
Néanmoins, cela a lancé une série de rencontres rapides entre les entreprises d'IA et les entrepreneurs de la défense. Meta s'est associé à Lockheed Martin et Booz Allen, entre autres, pour apporter ses modèles d'IA Llama aux agences de défense en novembre. Ce même mois, Anthropic s'est associé à Palantir. En décembre, OpenAI a conclu un accord similaire avec Anduril. Plus discrètement, Cohere déploie également ses modèles avec Palantir.
Alors que l'IA générative prouve son utilité au Pentagone, elle pourrait pousser la Silicon Valley à assouplir ses politiques d'utilisation de l'IA et à autoriser davantage d'applications militaires.
« Jouer à travers différents scénarios est quelque chose pour quoi l'IA générative peut être utile », a déclaré Plumb. « Cela vous permet de tirer parti de l'ensemble des outils dont nos commandants disposent, mais aussi de réfléchir de manière créative à différentes options de réponse et aux compromis potentiels dans un environnement où il y a une menace potentielle, ou une série de menaces, qui doivent être traitées. »
Il n'est pas clair quelle technologie le Pentagone utilise pour ce travail ; utiliser l'IA générative dans la chaîne de destruction (même à la phase de planification précoce) semble enfreindre les politiques d'utilisation de plusieurs développeurs de modèles de premier plan. La politique d'Anthropic, par exemple, interdit d'utiliser ses modèles pour produire ou modifier des « systèmes conçus pour causer des dommages ou la perte de vies humaines ». En réponse à nos questions, Anthropic a dirigé TechCrunch vers l'interview récente de son PDG Dario Amodei avec le Financial Times, où il a défendu son travail militaire.
La position selon laquelle nous ne devrions jamais utiliser l'IA dans des contextes de défense et de renseignement ne me semble pas logique. La position selon laquelle nous devrions aller en force et l'utiliser pour produire tout ce que nous voulons - jusqu'à et y compris des armes de destruction massive - c'est évidemment tout aussi fou. Nous essayons de trouver un juste milieu, de faire les choses de manière responsable.
OpenAI, Meta et Cohere n'ont pas répondu à la demande de commentaires de TechCrunch.
Vie et mort, et armes d'IA
Depuis quelques mois, un débat sur les technologies de défense fait rage pour savoir si les armes d'IA devraient vraiment être autorisées à prendre des décisions de vie et de mort. Certains affirment que l'armée américaine possède déjà des armes qui le font.
Le PDG d'Anduril, Palmer Luckey, a récemment noté sur X que l'armée américaine a une longue histoire d'achat et d'utilisation de systèmes d'armes autonomes tels qu'une tourelle CIWS.
« Le DoD achète et utilise des systèmes d'armes autonomes depuis des décennies maintenant. Leur utilisation (et leur exportation !) est bien comprise, étroitement définie et explicitement réglementée par des règles qui ne sont pas du tout facultatives », a déclaré Luckey.
Mais lorsque TechCrunch a demandé si le Pentagone achète et utilise des armes entièrement autonomes - sans humains dans la boucle - Plumb a rejeté l'idée en principe.
« Non, est la réponse courte », a déclaré Plumb. « Pour des raisons de fiabilité et d'éthique, nous aurons toujours des humains impliqués dans la décision d'employer la force, et cela vaut aussi pour nos systèmes d'armes. »
Le terme « autonomie » est quelque peu ambigu et a déclenché des débats dans toute l'industrie technologique sur le moment où les systèmes automatisés - comme les agents de codage IA, les voitures autonomes ou les armes automatiques - deviennent vraiment indépendants.
Plumb a déclaré que l'idée que les systèmes automatisés prennent indépendamment des décisions de vie et de mort était « trop binaire », et que la réalité était moins « science fiction ». Elle a plutôt suggéré que l'utilisation des systèmes d'IA par le Pentagone est vraiment une collaboration entre les humains et les machines, où les hauts dirigeants prennent des décisions actives tout au long du processus.
Sécurité de l'IA au Pentagone
Les partenariats militaires n'ont pas toujours été bien accueillis par les employés de la Silicon Valley. L'année dernière, des dizaines d'employés d'Amazon et de Google ont été licenciés et arrêtés après avoir protesté contre les contrats militaires de leurs sociétés avec Israël, des accords cloud sous le nom de code 'Project Nimbus'.
Comparativement, la réponse de la communauté de l'IA a été assez discrète. Certains chercheurs en IA, comme Evan Hubinger d'Anthropic, affirment que l'utilisation de l'IA dans les armées est inévitable, et qu'il est essentiel de travailler directement avec l'armée pour s'assurer qu'ils font les choses correctement.
« Si vous prenez les risques catastrophiques de l'IA au sérieux, le gouvernement américain est un acteur extrêmement important avec lequel s'engager, et essayer simplement de bloquer le gouvernement américain pour qu'il n'utilise pas l'IA n'est pas une stratégie viable », a déclaré Hubinger dans un post de novembre sur le forum en ligne LessWrong. « Il ne suffit pas de se concentrer uniquement sur les risques catastrophiques, il faut également empêcher toute manière que le gouvernement puisse potentiellement mal utiliser vos modèles. »