Menu
TRACKRTRACKR
  • Mobile
  • Tech
  • Gaming
Tech

L’IA du projet Maven utilisée par le Pentagone pour identifier les cibles de frappes aériennes

Tech > IA > Projet Maven
Par Benjamin,  publié le 27 février 2024 à 11h48, modifié le 27 février 2024 à 11h48.

Un responsable du Pentagone garantit que les recommandations de l'intelligence artificielle sont continuellement vérifiées par des employés humains. Les humains sont-ils réellement capables de contrôler les actions de l'IA?

Tl;dr

  • Après les attaques du Hamas en octobre, l’armée américaine a intensifié son utilisation de l’IA.
  • Les algorithmes d’apprentissage automatique ont aidé à identifier des cibles pour plus de 85 frappes aériennes.
  • L’IA a été développée dans le cadre du projet Maven, un partenariat désormais défunt de Google avec le Pentagone.
  • Les forces américaines n’ont pas cessé d’expérimenter avec l’IA pour l’identification des cibles, malgré la fin de l’implication de Google.

L’armée américaine intensifie l’utilisation de l’IA

L’armée des États-Unis a augmenté l’usage des outils d’intelligence artificielle dans ses opérations, suite aux attaques du Hamas sur Israël en octobre, selon un rapport récent de Bloomberg.

Des algorithmes pour identifier les cibles

Selon Schuyler Moore, responsable de la technologie au Commandement central des États-Unis, les algorithmes d’apprentissage automatique ont permis d’identifier des cibles pour plus de 85 frappes aériennes au Moyen-Orient ce mois-ci. Les bombardiers et avions de chasse américains ont mené ces frappes contre sept installations en Irak et en Syrie le 2 février, détruisant ou endommageant au moins des roquettes, des missiles, des installations de stockage de drones et des centres d’opérations de milices.

Le projet Maven : un partenariat controversé

Les algorithmes utilisés pour identifier ces cibles ont été développés dans le cadre du projet Maven, un partenariat controversé de Google avec le Pentagone qui a depuis pris fin. Ce projet impliquait l’utilisation de la technologie d’intelligence artificielle de Google par l’armée américaine pour analyser les images de drones et marquer des images pour examen humain ultérieur. Cela a provoqué une vive réaction parmi les employés de Google, certains ayant même quitté l’entreprise pour protester contre ce partenariat.

L’utilisation de l’IA se poursuit

Cependant, Moore a déclaré à Bloomberg que, malgré la fin de l’implication de Google, les forces américaines n’ont pas cessé d’expérimenter l’usage des algorithmes pour identifier des cibles potentielles à partir de l’imagerie de drones ou de satellites. Elle a cependant précisé que chaque étape impliquant l’IA est constamment vérifiée par un humain.

L’avis de la rédaction

Cette évolution témoigne de la convergence croissante entre technologie et défense. Toutefois, l’implication des géants de la tech dans les opérations militaires soulève des questions éthiques complexes. Il est impératif que le recours à l’IA dans ce contexte soit accompagné de contrôles rigoureux pour garantir le respect des principes humanitaires.

Le Récap
  • Tl;dr
  • L’armée américaine intensifie l’utilisation de l’IA
  • Des algorithmes pour identifier les cibles
  • Le projet Maven : un partenariat controversé
  • L’utilisation de l’IA se poursuit
  • L’avis de la rédaction
  • À propos
  • Infos Légales
© 2025 - Tous droits réservés sur les contenus du site TRACKR