Menu
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.pngTRACKR
  • Tech
  • Pop Culture
    • Films
    • Séries TV
  • Jeux Vidéo
Tech

Hackers et IA : la nouvelle frontière des cyberattaques

Tech > IA > Cyberattaque > Malware
Par CodexZéro,  publié le 12 décembre 2025 à 14h00.
Hack

Image d'illustration. HackCyberDaily / PR-ADN

Des pirates informatiques ont réussi à exploiter les intelligences artificielles de ChatGPT, Grok et Google, les amenant à fournir des instructions permettant d’installer des logiciels malveillants sur des ordinateurs, selon des analyses récentes.

Tl;dr

  • Des hackers exploitent désormais l’IA générative (ChatGPT, Grok) pour diffuser des instructions malicieuses via Google, piégeant les utilisateurs sans téléchargement ni pièce jointe.
  • Cette technique repose sur la confiance aveugle des internautes envers Google et les assistants IA, transformant cette crédulité en faille de sécurité.
  • Pour se protéger, il est crucial de vérifier l’origine des commandes, de rester critique face aux conseils d’IA et de ne jamais exécuter de code incompris.

L’ombre grandissante de l’IA dans la cybersécurité

Les usages de l’intelligence artificielle suscitent autant de fascination que d’inquiétude, et les événements récents révèlent une nouvelle frontière en matière de cyberattaque. La société spécialisée en détection de menaces Huntress vient d’alerter sur une technique particulièrement retorse exploitant la crédulité numérique : des hackers manipulent désormais les outils d’IA générative, comme ChatGPT ou Grok, pour propager des instructions malicieuses au sommet des résultats Google.

Un piège discret et redoutablement efficace

Le procédé dévoilé par Huntress, loin des stratagèmes classiques, ne nécessite ni téléchargement suspect, ni clic sur une pièce jointe douteuse. Tout commence par une interaction banale : un cybercriminel interroge un assistant conversationnel sur un sujet populaire – par exemple, comment « libérer de l’espace disque sur Mac » – puis lui demande de proposer une commande à copier dans le terminal. Ce dialogue est publié, parfois promu via Google Ads. Dès lors, toute personne effectuant cette recherche voit apparaître ces recommandations piégées tout en haut de la page.

Dans une enquête menée suite à une attaque baptisée AMOS, qui visait à exfiltrer des données depuis un Mac, les analystes ont constaté que la victime avait simplement cherché une solution à son problème sur Google. Tombant sur un lien sponsorisé pointant vers une discussion ChatGPT, elle a reproduit le code conseillé… offrant ainsi aux hackers le contrôle souhaité.

L’ingénierie sociale version IA : attention à la confiance aveugle

Ce qui frappe dans cette méthode ? L’absence totale d’alertes traditionnelles. Ni fichier à télécharger, ni application douteuse : seul le prestige et la notoriété de Google ou de ChatGPT servent de caution. Ce biais cognitif, où l’on accorde sans réfléchir sa confiance à des marques omniprésentes comme Google, se transforme ici en faille béante.

Voici quelques conseils élémentaires pour limiter ce risque croissant :

  • Toujours vérifier l’origine d’une commande avant exécution.
  • Méfiez-vous des conseils techniques relayés par des assistants IA sans source officielle.
  • N’entrez jamais une instruction dans votre terminal si vous n’en comprenez pas parfaitement l’impact.

L’écosystème IA sous tension : prudence exigée

Cette actualité intervient alors que les acteurs majeurs du secteur subissent déjà leur lot de critiques : tandis que Grok fait polémique pour sa proximité jugée excessive avec Elon Musk, le créateur de ChatGPT OpenAI doit composer avec une concurrence toujours plus rude. Le risque n’a pas encore été démontré avec tous les chatbots, mais face à ces pratiques émergentes, mieux vaut adopter dès maintenant un réflexe simple : rester vigilant et exercer un regard critique — même lorsque la réponse provient d’une intelligence artificielle renommée.

Le Récap
  • Tl;dr
  • L’ombre grandissante de l’IA dans la cybersécurité
  • Un piège discret et redoutablement efficace
  • L’ingénierie sociale version IA : attention à la confiance aveugle
  • L’écosystème IA sous tension : prudence exigée
En savoir plus
  • Airbnb expérimente la recherche par intelligence artificielle auprès d’un nombre restreint d’utilisateurs
  • OpenAI recherche un nouveau responsable pour anticiper et limiter les risques liés à l’IA
  • LG UltraGear evo : des moniteurs gaming IA pour l’expérience ultime
https://trackr.fr/app/uploads/2024/09/cropped-TRACKR-2.png
  • À propos
  • Archives
  • Infos Légales
© 2026 - Tous droits réservés sur les contenus du site TRACKR