OpenAI et Anthropic s’allient pour dévoiler leurs modèles à l’Institut de Sécurité IA des USA
Un porte-parole de Google a informé Engadget qu'ils sont actuellement en discussion avec l'agence. Que peuvent-ils bien mijoter ensemble ?
Tl;dr
- OpenAI et Anthropic partageront leurs modèles d’IA avec l’Institut de Sécurité IA américain.
- Google est en discussion avec l’institut pour une collaboration similaire.
- L’Institut de Sécurité IA collabore aussi avec son homologue britannique.
- Un projet de loi en Californie implique le contrôle strict de l’IA.
Collaboration historique pour la sécurité de l’IA
OpenAI et Anthropic ont pris une décision historique pour la sécurité de l’Intelligence Artificielle (IA). Ces deux entreprises partageront leurs modèles d’IA, avant et après leur lancement, avec l’Institut de Sécurité IA des États-Unis. Cet organisme, créé sur ordre exécutif du président Biden en 2023, donnera des conseils de sécurité pour améliorer ces modèles. “Ces accords sont le début, mais ils marquent une étape importante dans notre travail pour aider à gérer de manière responsable l’avenir de l’IA”, a déclaré Elizabeth Kelly, directrice de l’institut.
Google en discussion pour une collaboration similaire
Google n’est pas en reste. Un porte-parole de l’entreprise a déclaré à Engadget que la société est en discussion avec l’institut et partagera plus d’informations lorsqu’elles seront disponibles. Cette semaine, Google a commencé à déployer des modèles de chatbots et de générateurs d’images mis à jour pour Gemini.
Une approche collaborative et internationale
L’Institut de Sécurité IA des États-Unis ne travaille pas seul. Il collabore aussi avec l’Institut de Sécurité IA du Royaume-Uni. Cette approche collaborative vise à réduire les risques et à évaluer les capacités et la sécurité de l’IA.
Contrôle strict de l’IA en Californie
En Californie, un projet de loi (SB 10147) qui impose des tests de sécurité pour les modèles d’IA coûtant plus de 100 millions de dollars à développer ou nécessitant une certaine quantité de puissance informatique a été approuvé par l’assemblée de l’État. Le projet de loi exige également que les entreprises d’IA aient des interrupteurs d’arrêt qui peuvent désactiver les modèles s’ils deviennent « ingérables ou incontrôlables ».
L’avis de la rédaction
Il est encourageant de voir de grandes entreprises comme OpenAI, Anthropic et potentiellement Google, prendre des mesures pour la sécurité de l’IA. La collaboration internationale est également un pas positif vers la régulation et le contrôle de cette technologie en constante évolution. Cependant, il reste à voir comment ces accords seront mis en œuvre et comment ils impacteront l’industrie de l’IA dans son ensemble.