L’IA du projet Maven utilisée par le Pentagone pour identifier les cibles de frappes aériennes
Un responsable du Pentagone garantit que les recommandations de l'intelligence artificielle sont continuellement vérifiées par des employés humains. Les humains sont-ils réellement capables de contrôler les actions de l'IA?
Tl;dr
- Après les attaques du Hamas en octobre, l’armée américaine a intensifié son utilisation de l’IA.
- Les algorithmes d’apprentissage automatique ont aidé à identifier des cibles pour plus de 85 frappes aériennes.
- L’IA a été développée dans le cadre du projet Maven, un partenariat désormais défunt de Google avec le Pentagone.
- Les forces américaines n’ont pas cessé d’expérimenter avec l’IA pour l’identification des cibles, malgré la fin de l’implication de Google.
L’armée américaine intensifie l’utilisation de l’IA
L’armée des États-Unis a augmenté l’usage des outils d’intelligence artificielle dans ses opérations, suite aux attaques du Hamas sur Israël en octobre, selon un rapport récent de Bloomberg.
Des algorithmes pour identifier les cibles
Selon Schuyler Moore, responsable de la technologie au Commandement central des États-Unis, les algorithmes d’apprentissage automatique ont permis d’identifier des cibles pour plus de 85 frappes aériennes au Moyen-Orient ce mois-ci. Les bombardiers et avions de chasse américains ont mené ces frappes contre sept installations en Irak et en Syrie le 2 février, détruisant ou endommageant au moins des roquettes, des missiles, des installations de stockage de drones et des centres d’opérations de milices.
Le projet Maven : un partenariat controversé
Les algorithmes utilisés pour identifier ces cibles ont été développés dans le cadre du projet Maven, un partenariat controversé de Google avec le Pentagone qui a depuis pris fin. Ce projet impliquait l’utilisation de la technologie d’intelligence artificielle de Google par l’armée américaine pour analyser les images de drones et marquer des images pour examen humain ultérieur. Cela a provoqué une vive réaction parmi les employés de Google, certains ayant même quitté l’entreprise pour protester contre ce partenariat.
L’utilisation de l’IA se poursuit
Cependant, Moore a déclaré à Bloomberg que, malgré la fin de l’implication de Google, les forces américaines n’ont pas cessé d’expérimenter l’usage des algorithmes pour identifier des cibles potentielles à partir de l’imagerie de drones ou de satellites. Elle a cependant précisé que chaque étape impliquant l’IA est constamment vérifiée par un humain.
L’avis de la rédaction
Cette évolution témoigne de la convergence croissante entre technologie et défense. Toutefois, l’implication des géants de la tech dans les opérations militaires soulève des questions éthiques complexes. Il est impératif que le recours à l’IA dans ce contexte soit accompagné de contrôles rigoureux pour garantir le respect des principes humanitaires.