Análise dos Riscos de Segurança de Ferramentas de IA a Partir da Controvérsia de Mudança de Nome do Clawdbot: Por Que Usuários Não Técnicos Devem Ter Cautela
(Updated 2/3/2026)

Análise dos Riscos de Segurança de Ferramentas de IA a Partir da Controvérsia de Mudança de Nome do Clawdbot: Por Que Usuários Não Técnicos Devem Ter Cautela

Author: z-image.me Team5 min read

A partir das três mudanças de nome do Clawdbot: Por que eu não recomendo fortemente que não-técnicos experimentem sem cuidado

O caso mais absurdo e realista no mundo da IA recentemente é a "tripla mudança de nome" do Clawdbot - do seu nome original Clawd (originalmente uma ferramenta simples de reencaminhamento de mensagens WhatsApp Relay), para a mudança apressada para Moltbot devido a problemas de marca registada, e finalmente para OpenClaw após feedback da comunidade. Em poucos dias, mudou de identidade três vezes. Por trás disso esconde a verdadeira "deficiência congénita" destes produtos de IA: não foi desenvolvido por uma grande empresa, mas sim um trabalho pessoal de um engenheiro que usou ferramentas de IA em casa durante 10 dias, com quase nenhum código escrito à mão e sem planeamento completo desde o início.

Processo de evolução das mudanças de nome do Clawdbot

A sua popularidade súbita foi puramente acidental - as estrelas no GitHub dispararam rapidamente para mais de 80k (com pico acima de 100k), sendo aclamado no mundo tecnológico como uma "tecnologia negra" que "economiza metade do esforço". Mas um projeto lançado de forma apressada não pode suportar o teste de uma disseminação em grande escala. As três mudanças de nome parecem ser pequenos problemas de marca registada e reputação, mas na realidade expõem a doença comum destes produtos: no início, focam apenas na implementação de funcionalidades e no desejo de se tornarem populares, sem considerar detalhes essenciais como pesquisa de marcas registadas e proteção de segurança. Assim que ganham popularidade inesperada, as deficiências técnicas ocultas e perigosos riscos de segurança são expostos instantaneamente, o que é a principal razão pela qual eu não recomendo fortemente que não-técnicos experimentem sem cuidado.

I. Ferramentas de IA que parecem "úteis" escondem vulnerabilidades de segurança "congénitas"

O problema central destas ferramentas de IA é: a conveniência está ligada a vulnerabilidades, e estas vulnerabilidades ocultas são o "ferimento mortal" que os não-técnicos simplesmente não conseguem suportar.

Tomando o Clawdbot como exemplo, ele promove "funcionalidades poderosas + implementação fácil", alegando poder integrar grandes modelos como Claude para automatizar tarefas, mas na realidade é uma "granja de frango" para hackers - milhares de instâncias de implementação já foram invadidas por hackers e se tornaram "computadores zumbis" à mercê de qualquer um.

Nós, não-técnicos, nem conseguimos ver as vulnerabilidades da ferramenta em si, nem podemos lidar com os riscos de implementação e uso, é como carregar uma arma sem segurança, que pode nos ferir a nós mesmos a qualquer momento.

II. Três riscos fatais que os não-técnicos simplesmente não podem evitar

Não estou a ser alarmista, cada vulnerabilidade de segurança em ferramentas como o Clawdbot pode custar caro, e nem sequer temos a capacidade de identificar estes riscos.

1. A ferramenta em si tem vulnerabilidades, e a implementação pode ser "desprotegida"

Ferramentas como o Clawdbot têm um "design picante": para alcançar uma automação poderosa, permitem altos privilégios, mas não vêm com proteção de segurança completa.

Como assistente de IA que funciona localmente, requer um URL público para implementação, o que equivale a expor o painel de controle diretamente em motores de busca como o Shodan, onde os hackers podem encontrá-lo com uma simples pesquisa.

O que é mais insidioso é a vulnerabilidade fatal do proxy reverso Nginx: desde que haja um pequeno desvio na configuração, os hackers podem facilmente obter todas as suas mensagens, configurações e chaves de API. E a "configuração correta" já está além da capacidade e compreensão dos não-técnicos, e as pessoas simplesmente não têm a noção de "configuração correta".

2. Vulnerabilidades na cadeia de fornecimento: o "plugin útil" que você baixou pode ser uma "porta dos fundos" para hackers

A expansão de funcionalidades do Clawdbot é feita através do repositório de plugins skills do MoltHub (originalmente Claude Hub), e este tipo de repositório nem sequer tem revisão de segurança básica. Hackers podem carregar plugins com portas dos fundos à vontade, depois usar manipulação de downloads para fingir alta popularidade e induzir os usuários a baixá-los.

O hacker de chap branca Jameson fez um teste simulado: um plugin com porta dos fundos, através de trapaças, alcançou 4000 downloads e se classificou entre os mais populares. Nós, não-técnicos, só podemos julgar a qualidade dos plugins pelo número de downloads, o que é exatamente o ponto fraco explorado pelos hackers.

Assim que usar um plugin malicioso, seus tokens de API, dados pessoais e até o controle do seu dispositivo podem ser secretamente roubados por hackers, e você não perceberá nada durante todo o processo.

O que é ainda mais absurdo é que o Moltbook (fórum exclusivo para agentes de IA) recentemente foi exposto por um pesquisador de segurança chamado Nagli na plataforma X por manipulação em massa de métricas: o plataforma não tem nenhuma restrição para criação de contas, e ele, usando apenas um agente OpenClaw, registou em massa 500 mil contas de bot falsas. Em outras palavras, os milhões de agentes de IA que a plataforma afirma ter, quase metade são bots falsos criados por manipulação (e isso só o que foi revelado, os dados reais são ainda mais desconhecidos). O chamado "carnaval social de IA" é, na verdade, uma falsa prosperidade, semelhante à perseguição cega a tendências no país, o que confirma que a popularidade explosiva destes produtos depende inteiramente de marketing e manipulação de métricas, não de valor real.

3. Ataques de injeção de prompt: instruções maliciosas invisíveis, impossíveis de prevenir

Há outro risco completamente desconhecido para não-técnicos - a injeção de prompt: hackers escondem instruções maliciosas em texto comum, induzindo ferramentas de IA a operar além dos seus privilégios e a roubar dados.

Este tipo de ataque é extremamente insidioso, e até ferramentas de segurança profissionais têm dificuldade em identificá-lo. O skills do Clawdbot têm sérios riscos deste tipo, e skills não verificados podem conter código malicioso que, quando executado, vazará dados ou até apagará arquivos importantes por engano.

Claro, isto não é específico para o Clawdbot, mas sim um problema generalizado ("todos aqui são lixo"). Antes de usar qualquer agente que suporte skills, é melhor ler todo o código ou usar outro modelo de IA independente para escanear, mas para nós que não entendemos código e princípios de IA, pode ser um trabalho bastante difícil.

III. Não acredite em "recomendações de proteção", os não-técnicos simplesmente não podem usá-las

Alguém poderia dizer que podemos adicionar algumas recomendações de proteção, como usar portas aleatórias, definir senhas, usar VPN.

Mas estas recomendações são puramente teóricas para os não-técnicos.

Sugere-se evitar a porta padrão 18789, configurar gateway.trusted_proxies para prevenir acesso falsificado, e imediatamente rodar as chaves de API após a exposição.

Estas operações exigem专业技术, a maioria das pessoas nem sabe como encontrar portas aleatórias, nem entende o significado de gateway.trusted_proxies, e muito menos sabe como rodar chaves de API.

É como um médico receitar uma prescrição profissional sem explicar como usá-la. Para alguém que não entende medicina, não só é inútil, mas pode até agravar a condição por usar o remédio errado.

IV. A verdade mais cruel: quando algo dá errado, você não pode fazer nada para consertar

Pesquisas mostram que centenas a milhares de instâncias de implementação do Clawdbot já foram invadidas: muitos usuários tiveram suas contas banidas pelo Claude, e outros perderam 70 dólares em apenas 24 horas devido a vazamento de chaves de API.

Os técnicos podem reduzir perdas através de ambientes isolados e reparação de vulnerabilidades, mas os não-técnicos, diante de contas banidas, vazamento de dados e sequestro de dispositivos, só podem ficar sem ação.

Não conseguimos encontrar vulnerabilidades, não conseguimos limpar programas maliciosos, e no final só podemos suportar vazamento de privacidade, perdas financeiras e até riscos legais.

Há um caso em Zhejiang: um "iniciante" em tecnologia nem mesmo proficiente em operações de computador, seguiu a tendência e usou este tipo de ferramenta de IA para criar vídeos falsos, acabando por violar a lei e ser preso. Até ser capturado, ele não entendeu onde estava errado.

Por fim, quero dizer: siga a IA com racionalidade, não seja "cobaia"

Do meu ponto de vista, a popularidade do Clawdbot no país é puramente uma perseguição cega a tendências por parte de não-técnicos. Esta ferramenta tem um baixo limiar técnico e pouca originalidade, as suas capacidades são apenas chamadas brutas de API de código aberto + altas permissões do sistema. Ela se tornou popular no exterior porque atendeu à necessidade dos utilizadores por assistentes de IA 7×24 horas num ecossistema interconectado; mas no país, diferentes fabricantes e produtos têm barreiras rigorosas, com WeChat, Alipay e Douyin a atuarem de forma independente, tornando esta ferramenta completamente inútil. A "popularidade explosiva" no país é, na essência, um frenesi de marketing, onde todos seguem a tendência para experimentar, sem se importarem com problemas práticos que possa resolver.

Posicionamento ecológico do OpenClaw

Não nego o valor inovador de tecnologias de IA como o Clawdbot, ele realmente aponta para o futuro da automação de IA, mas neste momento há muitas vulnerabilidades de segurança, tornando-se longe de ser uma ferramenta conveniente para usuários comuns, e mais como um produto de teste para técnicos.

O modelo de segurança destas ferramentas tem defeitos fundamentais e ainda precisa de melhoração a longo prazo; Autoridades como Palo Alto Networks e Cisco também alertaram que ele pode causar novas crises de segurança de IA.

Os técnicos podem testar e reparar vulnerabilidades em ambientes isolados, mas nós, não-técnicos, não precisamos arriscar nossa privacidade e propriedade para pagar pela maturação da tecnologia.

Atualmente, o desenvolvimento da IA está avançando rapidamente, com novas ferramentas a surgir constantemente, mas我们必须分清 a fronteira entre "teste técnico" e "uso diário". O que queremos é conveniência e segurança, não a emoção de experimentar algo novo.

A conveniência da IA nunca deve vir ao custo da segurança. Espero que cada leitor possa manter a racionalidade, não seguir cegas as tendências, não usar privacidade e propriedade como "produtos de teste", e esperar que esta tecnologia amadurece e as vulnerabilidades sejam corrigidas antes de desfrutar da conveniência com tranquilidade. Esta é a escolha mais sábia, ou pelo menos, antes de entregar sua chave de API e senha bancária, pergunte à IA: como você pode garantir a segurança da minha privacidade?