Si l’IA est sur le point de conquérir le monde, pourquoi ne résout-elle pas le Spelling Bee ?
Des milliards de dollars ont été investis dans un jeu de mots simple. Cela semble presque incroyable, n'est-ce pas ? Et vous, seriez-vous prêt à investir autant dans un jeu aussi simple ?
Tl;dr
- L’IA peine à résoudre un casse-tête du New York Times
- Les modèles de langage de l’IA dépendent fortement des données sur lesquelles ils sont entraînés
- Des entreprises comme OpenAI et Meta ont exagéré les capacités de l’IA
- L’IA ne remplace pas encore entièrement l’intelligence humaine
Les limites de l’IA : un casse-tête révélateur
Un défi simple à première vue : résoudre le casse-tête Spelling Bee du New York Times avec l’aide de l’intelligence artificielle (IA). Pourtant, malgré des heures d’efforts, l’IA n’a pas réussi à combler le vide laissé par l’esprit humain. Le casse-tête, qui consiste à assembler des lettres pour former le plus grand nombre de mots possible, a révélé les limites de nos modèles d’IA actuels.
IA et langage : un apprentissage complexe
Les modèles de langage de l’IA, comme ceux utilisés par ChatGPT, Microsoft’s Copilot, Google’s Gemini, et d’autres, fonctionnent sur une base statistique, analysant des motifs dans les données pour générer de nouvelles données. Noah Giansiracusa, professeur de mathématiques et de science des données à l’Université Bentley, explique : “Il s’agit vraiment d’extraire des motifs des données et de produire de nouvelles données qui correspondent en grande partie à ces motifs”.
Cependant, la qualité des réponses fournies par l’IA dépend fortement des données sur lesquelles elle a été formée. C’est pourquoi ces modèles ont du mal avec des tâches comme les échecs ou les casse-têtes de mots, car il n’y a tout simplement pas assez de données disponibles pour l’entraînement.
Les promesses non tenues de l’IA
Malgré ces limites, certaines des plus grandes entreprises d’IA du monde, comme OpenAI et Meta, ont vanté les capacités de leurs modèles, affirmant qu’ils étaient capables de “raisonner” et de “planifier”. Cependant, ces affirmations semblent exagérées, comme le démontre l’échec de ces modèles à résoudre le casse-tête Spelling Bee.
Il est clair que nous sommes encore loin de l’intelligence artificielle générale, c’est-à-dire d’une machine capable de réaliser la plupart des tâches aussi bien, voire mieux, que les humains. Yann LeCun, le principal scientifique en IA de Meta, a souligné que les modèles de langage actuels ne sont pas vraiment logiques et ne comprennent pas comment fonctionne le monde.
L’avis de la rédaction
Il est crucial de comprendre et d’accepter les limites de l’IA. Les entreprises technologiques doivent être plus transparentes sur les capacités de l’IA afin de ne pas créer de fausses attentes. Il est nécessaire de continuer à développer et à améliorer l’IA, mais il est tout aussi important de reconnaître qu’elle ne peut pas encore remplacer l’intelligence humaine dans de nombreux domaines.
- Protégez votre image : comment demander à YouTube de supprimer le contenu généré par IA qui vous ressemble ?
- Comment les entreprises de télécoms peuvent-elles prouver leur volonté de stopper les robocalls politiques IA ?
- YouTube envisagerait de rémunérer les maisons de disques pour former son IA avec leurs morceaux