Risques de sécurité des outils d'IA : pourquoi les utilisateurs non techniques doivent être prudents - Analyse de la controverse autour du renommage de Clawdbot
(Updated 2/3/2026)

Risques de sécurité des outils d'IA : pourquoi les utilisateurs non techniques doivent être prudents - Analyse de la controverse autour du renommage de Clawdbot

Author: z-image.me Team5 min read

À propos des trois changements de nom de Clawdbot : Pourquoi je déconseille fortement aux non-techniciens de l'essayer facilement

Le cas le plus absurde et le plus réaliste du monde de l'IA ces derniers jours est la "triple renommée" de Clawdbot - de son nom initial Clawd (précédemment un simple outil de transfert de messages WhatsApp Relay), à un renommage précipité en Moltbot en raison de problèmes de marque, puis à son nom final OpenClaw après avoir pris en compte les retours de la communauté. En quelques jours seulement, trois changements d'identité. Derrière cela se cache la vérité sur ces produits AI "congénitalement défectueux" : il ne s'agit pas d'un produit d'une grande entreprise, mais d'un travail personnel créé par un ingénieur à la maison en utilisant des outils AI en 10 jours, avec peu de code écrit à la main et sans planification complète dès le départ.

Processus d'évolution des changements de nom de Clawdbot

Sa popularité soudaine est purement accidentelle - les étoiles sur GitHub ont rapidement dépassé 80k+ (pic à plus de 100k+), et il a été présenté dans le monde de la technologie comme une "noire technologie" qui "épargne la moitié de vos efforts". Mais un projet lancé précipitément ne peut tout simplement pas résister à l'épreuve d'une large diffusion. Les trois changements de nom sembl être de petits problèmes de marque et de réputation, mais ils exposent en réalité les défauts communs de ce type de produits : au départ, ils se concentrent uniquement sur la mise en œuvre des fonctionnalités et sur une sortie rapide sur le marché, sans tenir compte des détails essentiels tels que la recherche de marques ou la protection de la sécurité. Une fois devenu populaire accidentellement, les lacunes techniques cachées et les risques de sécurité mortels se révèlent instantanément, c'est aussi la raison fondamentale pour laquelle je déconseille fortement aux non-techniciens de l'essayer.

I. Les outils AI qui semblent "pratiques" cachent des failles de sécurité "congénitales"

Le problème fondamental de ces outils AI est : la commodité est liée aux failles, et ces failles cachées sont les "blessures mortelles" que les non-techniciens ne peuvent tout simplement pas supporter.

Avec Clawdbot comme exemple, il met en avant "fonctionnalités puissantes + déploiement facile", prétendant pouvoir intégrer de grands modèles comme Claude pour automatiser les tâches, mais en réalité, il s'agit d'une "grande ferme de poulets" pour les pirates - des milliers d'instances de déploiement ont déjà été compromises par des pirates et sont devenues des "machines à viande" à la merci de quiconque.

Nous, les non-techniciens, ne pouvons ni détecter les failles de l'outil lui-même, ni faire face aux risques de déploiement et d'utilisation, comme si nous tenions un pistolet sans sûreté, risquant de nous blesser nous-mêmes à tout moment.

II. Trois risques mortels que les non-techniciens ne peuvent tout simplement éviter

Ce n'est pas pour faire peur, mais chaque risque de sécurité dans des outils comme Clawdbot peut vous coûter cher, et nous n'avons même pas la capacité d'identifier ces risques.

1. L'outil lui-même a des failles, le déploiement peut vous exposer "nu"

Des outils comme Clawdbot ont une conception "piquante" : pour réaliser une automatisation puissante, ils ouvrent des droits élevés, mais ne sont pas accompagnés d'une protection de sécurité complète.

En tant qu'assistant AI fonctionnant localement, il nécessite une URL publique pour être déployé, ce qui équivaut à exposer directement le panneau de contrôle devant des moteurs de recherche comme Shodan, que les pirates peuvent trouver en un seul clic.

Plus subtile encore est la faille mortelle de son proxy inverse Nginx : tant que la configuration est légèrement déviée, les pirates peuvent facilement obtenir tous vos messages, configurations et clés API, et la "configuration correcte" elle-même dépasse les capacités et la compréhension des non-techniciens. Les gens n'ont tout simplement pas conscience de ce qu'est une "configuration correcte".

2. Failles de la chaîne d'approvisionnement : le "plugin utile" que vous téléchargez pourrait être une "porte dérobée" pour les pirates

L'extension des fonctionnalités de Clawdbot est réalisée via le dépôt de plugins skills de MoltHub (anciennement Claude Hub), et ce type de dépôt n'a même pas d'examen de sécurité de base. Les pirates peuvent télécharger des plugins avec des portes dérobées à leur guise, puis simuler des "téléchargements populaires" pour se faire passer pour "très populaires" et inciter les utilisateurs à les télécharger.

Le hacker en blanc Jameson a effectué un test simulé : un plugin avec une porte dérobée, trichant pour atteindre 4000 téléchargements, a réussi à se hisser en tête du classement. Nous, les non-techniciens, ne pouvons juger de la qualité d'un plugin que par son nombre de téléchargements, ce qui est précisément le point de rupture exploité par les pirates.

Une fois que vous utilisez un plugin malveillant, vos jetons API, vos données personnelles et même le contrôle de votre appareil peuvent être volés discrètement par des pirates, et vous n'en serez pas conscient pendant tout le processus.

Plus absurde encore, Moltbook (forum exclusif pour les AI agents), a récemment été exposé par le chercheur en sécurité Nagli sur la plateforme X pour avoir massivement truqué les chiffres de téléchargement : la plateforme n'impose aucune restriction à la création de comptes, et avec un seul agent OpenClaw, il a enregistré par lots 500 000 comptes de bot fictifs. Autrement dit, les millions d'AI agents prétendus par la plateforme, près de la moitié sont des bots factices truqués (et ce n'est que ce qui a été révélé, les données réelles sont encore plus inconnues), si l'on peut appeler cela une "fête sociale de l'AI", c'est en réalité une fausse prospérité, similaire à la poursuite aveugle des tendances en Chine, confirmant que la popularité soudaine de ce type de produits repose entièrement sur le marketing et le truquage des chiffres, plutôt que sur une valeur réelle.

3. Attaques par injection de prompts : instructions malveillantes invisibles, impossibles à prévenir

Il y a un autre risque totalement inconnu des non-techniciens - l'injection de prompts : les pirates cachent des instructions malveillantes dans du texte ordinaire, incitant l'outil AI à agir hors de ses prérogatives ou à voler des données.

Ce type d'attaque est extrêmement subtil, même les outils de sécurité professionnels ont du mal à le détecter. Les skills de Clawdbot présentent de graves risques de ce type, et les skills non vérifiés peuvent contenir du code malveillant qui, une fois exécuté, peut divulguer des données ou même supprimer accidentellement des fichiers importants.

Bien sûr, ce n'est pas spécifique à Clawdbot mais "tout le monde dans cette salle est naze", avant d'utiliser tous les agents qui supportent les skills, il est préférable de lire tout le code ou de le scanner avec un autre modèle AI indépendant, mais pour nous qui ne comprenons pas le code et les principes de l'IA, c'est aussi un travail assez difficile.

III. Ne faites pas confiance aux "conseils de protection", ils sont inutilisables pour les non-techniciens

Certaines personnes pourraient dire qu'on peut ajouter quelques conseils de protection, comme utiliser des ports aléatoires, définir des mots de passe, ou utiliser un VPN.

Mais ces conseils sont purement théoriques pour les non-techniciens.

Évitez le port par défaut 18789, configurez gateway.trusted_proxies pour prévenir les accès falsifiés, et changez immédiatement vos clés API en cas d'exposition.

Toutes ces opérations nécessitent des compétences techniques. La plupart des gens ne savent pas comment trouver un port aléatoire, ne comprennent pas ce que signifie gateway.trusted_proxies, et ne savent pas comment changer les clés API.

C'est comme si un médecin prescrivait une ordonnance professionnelle sans expliquer comment l'utiliser - pour quelqu'un qui ne connaît pas la médecine, non seulement c'est inutile, mais cela pourrait empirer la situation à cause d'une mauvaise utilisation du médicament.

IV. La vérité la plus cruelle : si un problème survient, vous ne pouvez rien y faire

Des recherches montrent que des centaines à des milliers d'instances de déploiement de Clawdbot ont été compromises : de nombreux utilisateurs ont eu leur compte Claude bloqué, et d'autres ont perdu 70 dollars en 24 heures à cause de fuites de clés API.

Les techniciens peuvent réduire les pertes en isolant l'environnement et en réparant les failles, mais les non-techniciens, face au blocage de comptes, aux fuites de données et à la prise de contrôle d'appareils, sont tout simplement impuissants.

Nous ne pouvons pas trouver les failles, supprimer les programmes malveillants, et finissons par subir des fuites de vie privée, des pertes financières, voire des risques juridiques.

Au Zhejiang, il y a eu un cas : une personne "blanche" en technologie, peu familière avec l'informatique, a suivi la tendance pour utiliser ce type d'outils AI pour créer de fausses vidéos, et a finalement été arrêtée pour avoir enfreint la loi. Jusqu'à son arrestation, elle n'a jamais compris où était son erreur.

Pour finir : Soyez rationnel dans votre suivi de l'IA, ne soyez pas un "cobaye"

De mon point de vue, la popularité soudaine de Clawdbot en Chine est purement due à la poursuite aveugle des tendances par des non-techniciens. Cet outil a en réalité un seuil technique bas et n'a rien d'innovant. Les capacités d'assistance qu'il réalise ne sont que des appels d'API open source brutaux + des autorisations système élevées. Il est devenu populaire à l'étranger car il a répondu à la demande des utilisateurs pour des assistants AI 7×24 heures dans un écosystème internet interconnecté, mais en Chine, différents fabricants et produits ont des barrières étanches, WeChat, Alipay, Douyin fonctionnent chacun de leur côté, cet outil n'a donc pas de lieu où s'exprimer. La "popularité soudaine" en Chine est en réalité une fête du marketing, tout le monde suit la tendance pour l'essayer, sans se soucier des problèmes pratiques qu'il peut résoudre.

Positionnement écologique d'OpenClaw

Je n' nie pas la valeur d'innovation de technologies AI comme Clawdbot, elle pointe effectivement vers le futur de l'automatisation de l'IA, mais à l'heure actuelle, il y a trop de risques de sécurité, ce n'est certainement pas un outil pratique pour les utilisateurs ordinaires, mais plutôt un produit de test pour les techniciens.

Ces outils ont des défauts fondamentaux dans leur modèle de sécurité et nécessitent des améliorations à long terme ; des organismes autorisés comme Palo Alto Networks et Cisco ont également averti qu'ils pourraient déclencher de nouvelles crises de sécurité AI.

Les techniciens peuvent tester et réparer les failles dans un environnement isolé, mais nous, les non-techniciens, n'avons pas besoin de mettre en jeu notre vie privée et nos biens pour payer le développement de la technologie.

Actuellement, le développement de l'IA est rapide, et de nouveaux outils apparaissent constamment, mais nous devons distinguer la "technologie de test" de l'"utilisation quotidienne". Ce que nous voulons, c'est la commodité et la sécurité, pas le plaisir de l'essai.

La commodité de l'IA ne doit jamais se faire au détriment de la sécurité. J'espère que chaque lecteur pourra rester rationnel, ne pas suivre aveuglement la tendance, et ne pas utiliser sa vie privée et ses biens comme "échantillon de test". Quand cette technologie sera mûre et que les failles seront comblées, profiter de la commodité en toute sécurité sera le choix le plus sage, ou du moins, avant de donner vos clés API et vos mots de passe bancaires, demandez d'abord à l'IA : comment pouvez-vous garantir ma sécurité et ma vie privée ?