OpenAI lève l’interdiction : l’usage militaire de sa technologie n’est plus tabou
La société a modifié le libellé de sa page de politiques d'utilisation. Quels pourraient être les impacts de ces changements pour les utilisateurs?
Tl;dr
- OpenAI a supprimé de ses politiques d’utilisation l’interdiction d’utiliser sa technologie à des fins militaires.
- La société avertit toujours contre l’utilisation de ses services pour développer ou utiliser des armes.
- Des agences militaires du monde entier montrent un intérêt pour l’utilisation d’IA.
- OpenAI n’a pas précisé si l’interdiction de nuire à autrui englobe tous les types d’utilisation militaire.
OpenAI modifie sa politique d’utilisation
La société d’intelligence artificielle, OpenAI, a récemment apporté des modifications notables à ses politiques d’utilisation. Auparavant, elle interdisait explicitement l’utilisation de sa technologie à des fins “militaires et de guerre”. Cette ligne a été supprimée, comme l’a révélé The Intercept. La page a été mise à jour le 10 janvier “pour être plus claire et fournir des orientations plus spécifiques au service”, selon le journal des modifications.
Utilisation de l’IA dans le domaine militaire
Alors que nous n’avons pas encore vu les implications concrètes de ce changement de formulation, il survient au moment où les agences militaires du monde entier manifestent un intérêt pour l’utilisation de l’IA. Sarah Myers West, directrice générale de l’AI Now Institute, a déclaré à la publication : “Étant donné l’utilisation des systèmes d’IA pour cibler les civils à Gaza, c’est un moment notable pour décider de supprimer les mots ‘militaire et guerre’ de la politique d’utilisation permissible d’OpenAI”.
Des implications potentiellement dangereuses
La mention explicite de “militaire et de guerre” dans la liste des utilisations interdites indiquait qu’OpenAI ne pouvait pas travailler avec des agences gouvernementales comme le Département de la Défense, qui propose généralement des contrats lucratifs. À l’heure actuelle, la société ne propose aucun produit susceptible de tuer directement ou de causer un préjudice physique à quiconque. Cependant, comme l’a souligné The Intercept, sa technologie pourrait être utilisée pour des tâches telles que l’écriture de code et le traitement des commandes d’achat de choses qui pourraient être utilisées pour tuer.
Un changement controversé
Interrogé sur ce changement de formulation, Niko Felix, porte-parole d’OpenAI, a déclaré que la société “visait à créer un ensemble de principes universels qui sont à la fois faciles à retenir et à appliquer, surtout que nos outils sont désormais utilisés à l’échelle mondiale par des utilisateurs quotidiens qui peuvent maintenant aussi construire des GPT”. Felix a précisé qu'”un principe comme ‘Ne faites pas de mal à autrui’ est large mais facilement compréhensible et pertinent dans de nombreux contextes”, ajoutant qu’OpenAI “a spécifiquement cité les armes et les blessures à autrui comme des exemples clairs”. Cependant, le porte-parole a refusé de préciser si l’interdiction d’utiliser sa technologie pour “nuire” à autrui inclut tous les types d’utilisation militaire en dehors du développement d’armes.
L’avis de la rédaction
Cette modification de la politique d’utilisation d’OpenAI suscite des inquiétudes légitimes. Il est essentiel d’établir des garde-fous solides pour prévenir les utilisations abusives de l’IA, en particulier dans les contextes militaires. Il est impératif que les sociétés comme OpenAI fournissent des directives claires et précises sur l’utilisation de leurs technologies, afin de garantir une utilisation responsable et éthique de l’IA.