L’administration de la Maison Blanche dévoile des directives AI détaillées pour le gouvernement fédéral
Les agences devront cesser d'utiliser des systèmes qui portent atteinte aux droits ou à la sécurité des Américains. Comment cela va-t-il impacter leur fonctionnement quotidien ?
Tl;dr
- L’administration Biden met en place une politique pour réguler l’utilisation de l’IA par le gouvernement fédéral.
- Les agences doivent avoir des mesures pour atténuer le risque de biais algorithmique.
- Les agences doivent publier une liste de leurs systèmes IA et comment les risques sont gérés.
- Des efforts sont en cours pour réguler l’IA aux États-Unis, à l’instar de l’Union Européenne.
Depuis la signature par le président Joe Biden d’un décret pour faire face à l’avancée rapide de l’intelligence artificielle (IA), cinq mois se sont écoulés. Aujourd’hui, la Maison Blanche franchit une nouvelle étape dans la mise en œuvre de ce décret avec une politique visant à réglementer l’utilisation de l’IA par le gouvernement fédéral. Ainsi, les agences devront mettre en place des mesures de protection pour atténuer les risques de biais algorithmique.
Les exigences de la nouvelle politique
Lors d’une conférence de presse, la vice-présidente Kamala Harris a annoncé trois exigences obligatoires dans le cadre de cette nouvelle politique de l’Office de Management et Budget (OMB). Premièrement, les agences devront veiller à ce que les outils d’IA qu’elles utilisent “ne mettent pas en danger les droits et la sécurité du peuple américain“.
Impact sur les droits et la sécurité des Américains
Conformément à la politique, un système d’IA est considéré comme ayant un impact sur la sécurité s’il contrôle ou influence significativement certains activités et décisions dans des conditions réelles. Cela inclut la maintenance de l’intégrité des élections et de l’infrastructure de vote, le contrôle des fonctions de sécurité critiques de l’infrastructure, les véhicules autonomes, et l’opération des mouvements physiques de robots dans différents contextes.
Transparence et surveillance interne
La deuxième exigence forcera les agences à être transparentes sur les systèmes d’IA qu’elles utilisent. Elles devront publier en ligne une liste de leurs systèmes d’IA, une évaluation des risques que ces systèmes pourraient poser et comment ces risques sont gérés. Enfin, les agences fédérales devront avoir une surveillance interne de leur utilisation de l’IA, y compris la nomination d’un responsable de l’IA pour superviser l’ensemble de l’utilisation de l’IA par une agence.
L’avis de la rédaction
La mise en place de cette politique est une avancée significative dans la régulation de l’intelligence artificielle. Cependant, il est crucial que cette régulation ne freine pas l’innovation, mais plutôt guide son développement de manière éthique et responsable. C’est un défi que tous les pays devront relever face à l’IA, car son utilisation croissante touche de nombreux secteurs de nos sociétés.
- La nouvelle technologie d’upscaling d’Adobe utilise l’IA pour améliorer la netteté des vidéos
- Découvrez comment la dernière version bêta d’Adobe Photoshop génère des images IA à partir de simples consignes textuelles
- Amazon présente une fonctionnalité de playlist générée par IA : une première mondiale!