AI worms are coming.
TL;DR : les vers IA, une nouvelle menace cybernétique
- Avènement des systèmes d'IA génératifs avancés comme ChatGPT et Gemini
- Construction d'agents IA par des startups pour automatiser des tâches
- Création du premier ver d'IA génératif capable de se propager et de voler des données
- Démonstration du ver Morris II, capable d'attaquer des assistants de messagerie d'IA
- Risques potentiels de sécurité liés aux vers d'IA génératifs
- Fonctionnement des vers via des invites auto-réplicantes adversaires
- Mesures de sécurité envisageables contre les menaces des vers d'IA
qu'est-ce que les vers IA et comment évoluent-ils ?
Avec la progression fulgurante des systèmes d'IA génératifs tels que OpenAI's ChatGPT et Google's Gemini, nous assistons à l'émergence d'une nouvelle forme de cybermenace : les vers IA.
Les startups et les entreprises technologiques ne cessent de construire des agents IA et des écosystèmes autour de ces plateformes, visant à automatiser des tâches répétitives et souvent ennuyeuses.
Cependant, des chercheurs ont récemment mis en lumière l'existence de l'un des premiers vers d'IA génératifs, une entité numérique capable de se propager d'un système à un autre, avec le potentiel inquiétant de voler des données ou de déployer des logiciels malveillants.
comment a été créé le ver Morris II ?
Le ver Morris II est l'œuvre des chercheurs Ben Nassi, Stav Cohen et Ron Bitton, qui ont souhaité rendre hommage au ver informatique Morris, connu pour avoir semé le chaos sur Internet en 1988.
À travers leur démonstration, ils ont montré comment ce ver d'IA est capable de s'infiltrer dans un assistant de messagerie d'IA génératif pour subtiliser des informations sensibles contenues dans des courriels et diffuser des messages de spam.
quels sont les risques potentiels liés aux vers d'IA génératifs ?
Bien que les vers d'IA génératifs n'aient pas encore été observés "dans la nature", ils représentent une source de préoccupation majeure pour de nombreux chercheurs en sécurité informatique.
Les instructions textuelles, qui ordonnent habituellement aux outils d'IA de répondre à une question ou de créer une image, pourraient être détournées pour nuire au système.
Les attaques par injection de commandes pourraient ainsi transmettre des instructions secrètes à un chatbot, le manipulant à des fins malveillantes.
comment fonctionne le ver d'IA génératif ?
Les chercheurs ont utilisé une technique appelée "invite auto-réplicante adversaire" qui incite le modèle d'IA génératif à produire une nouvelle invite dans sa réponse.
Ils ont conçu un système de messagerie capable d'envoyer et de recevoir des messages en exploitant l'IA générative, en se connectant à des plateformes telles que ChatGPT, Gemini, et LLaVA.
Deux méthodes d'exploitation ont été identifiées : l'utilisation d'une invite textuelle auto-réplicante et l'intégration d'une invite auto-réplicante au sein d'un fichier image.
quelles sont les mesures de sécurité potentielles contre les vers d'IA génératifs ?
Pour se prémunir contre les vers d'IA, les développeurs de systèmes d'IA génératifs peuvent recourir à des stratégies de sécurité éprouvées.
Il est essentiel de maintenir une présence humaine active dans le processus, en veillant à ce que les agents d'IA ne prennent pas de décisions sans une validation préalable.
Les chercheurs suggèrent également de surveiller les répétitions d'invites au sein des systèmes. Ces répétitions peuvent générer un "bruit" significatif et être facilement repérables.
Pour plus d'informations sur cette actualité, consultez l'article détaillé sur Wired.