Análise dos Riscos de Segurança de Ferramentas de IA a Partir da Controvérsia de Mudança de Nome do Clawdbot: Por Que Usuários Não Técnicos Devem Ser Cautelosos
(Updated 2/3/2026)

Análise dos Riscos de Segurança de Ferramentas de IA a Partir da Controvérsia de Mudança de Nome do Clawdbot: Por Que Usuários Não Técnicos Devem Ser Cautelosos

Author: z-image.me Team5 min read

Das três mudanças de nome do Clawdbot: Por que eu não recomendo fortemente que não-técnicos experimentem

Recentemente, o caso mais absurdo e realista no mundo da IA foi a "tripla mudança de nome" do Clawdbot - do nome original Clawd (cujo predecessor era uma ferramenta simples de encaminhamento de mensagens WhatsApp Relay), para a mudança apressada de nome para Moltbot devido a problemas de marca registrada, e finalmente para o nome definitivo OpenClaw após feedback da comunidade, em poucos dias ele mudou de identidade três vezes. Por trás disso esconde a verdade sobre a "deficiência congênita" desses produtos de IA: não é um produto de grandes empresas, mas sim um trabalho pessoal de um engenheiro que usou ferramentas de IA em casa por 10 dias para gerá-lo, com quase nenhum código escrito à mão, e sem planejamento completo desde o início.

Processo de evolução das mudanças de nome do Clawdbot

Sua popularidade súbita foi puramente acidental - as estrelas no GitHub dispararam rapidamente para mais de 80k (pico de mais de 100k), e foi aclamado no mundo da tecnologia como uma "tecnologia escura" que "economiza metade do esforço", mas um projeto lançado apressadamente simplesmente não pode suportar o teste de grande escala de disseminação. As três mudanças de nome parecem ser pequenos problemas de marca e reputação, mas na verdade expõem a doença comum desses produtos: no início, eles apenas buscam a implementação de recursos e se apressam para se destacar, sem considerar completamente detalhes essenciais como pesquisa de marcas registradas e proteção de segurança. Uma vez que se tornam inesperadamente populares, as deficiências técnicas ocultas e perigosos riscos de segurança são expostos instantaneamente, que é o motivo principal pelo qual eu não recomendo fortemente que não-técnicos experimentem.

I. Ferramentas de IA que parecem "úteis" escondem vulnerabilidades de segurança "congênitas"

O problema central dessas ferramentas de IA é: conveniência e vulnerabilidades estão vinculadas, e essas vulnerabilidades ocultas são justamente as "feridas fatais" que os não-técnicos simplesmente não podem suportar.

Representado pelo Clawdbot, ele se concentra em "fortes funcionalidades + implantação fácil", alegando poder integrar grandes modelos como Claude para automatizar tarefas, mas na verdade é um "grande criadouro de galinhas" para hackers - milhares de instâncias de implantação já foram invadidas por hackers e se tornaram "zumbis" à mercê de qualquer um.

Nós, não-técnicos, não conseguimos nem identificar as vulnerabilidades da ferramenta em si, nem lidar com os riscos durante a implantação e uso, é como carregar uma arma sem segurança, que pode nos ferir a qualquer momento.

II. Três riscos fatais, que os não-técnicos simplesmente não podem evitar

Não estou assustando desnecessariamente, cada vulnerabilidade de segurança de ferramentas como o Clawdbot pode fazer você pagar um preço caro, e nós nem mesmo temos a capacidade de identificar riscos.

1. A ferramenta em si tem vulnerabilidades, e a implantação pode ser "desprotegida"

Ferramentas como o Clawdbot têm um "design picante": para alcançar forte automação, elas permitem altas permissões, mas não vêm com proteção de segurança completa.

Como assistente de IA que executa localmente, ele exige uma URL pública para implantação, o que equivale a expor o painel de controle diretamente diante de mecanismos de busca como o Shodan, onde os hackers podem encontrá-lo com uma simples busca.

Mais sutil é a vulnerabilidade fatal do proxy reverso Nginx: desde que a configuração tenha o menor desvio, os hackers podem facilmente obter todas as suas mensagens, configurações e chaves de API, e a "configuração correta" já está além da capacidade e compreensão dos não-técnicos. As pessoas simplesmente não têm a consciência da chamada "configuração correta".

2. Vulnerabilidades na cadeia de suprimentos: seu "plug-in útil" baixado pode ser uma "porta dos fundos" para hackers

A expansão de funcionalidades do Clawdbot é realizada através do repositório de plug-ins skills do MoltHub (originalmente Claude Hub), e esse tipo de repositório nem mesmo tem revisão de segurança básica. Hackers podem carregar plug-ins com portas dos fundos arbitrariamente e, em seguida, disfarçá-los como "altamente populares" inflando o número de downloads para induzir os usuários a baixá-los.

O hacker de chapéu branco Jameson fez um teste simulatório: um plug-in com porta dos fundos, com trapaça, alcançou 4.000 downloads e se classificou entre os primeiros. Nós, não-técnicos, só podemos julgar a qualidade dos plug-ins pelo número de downloads, e exatamente isso é a brecha que os hackers exploram.

Uma vez que um plug-in malicioso é usado, seus tokens de API, dados pessoais e até mesmo o controle do seu dispositivo podem ser secretamente roubados por hackers, e você não perceberá durante todo o processo.

O que é ainda mais absurdo é que o Moltbook (fórum exclusivo para agentes de IA), recentemente foi exposto por um pesquisador de segurança chamado Nagli na plataforma X por ter grande escala de falsificação de números de download: a plataforma não tem nenhuma restrição para criação de contas, e ele, com apenas um agente OpenClaw, registrou em massa 500.000 contas de bot falsas. Em outras palavras, os milhões de agentes de IA que a plataforma afirma ter, quase metade são bots falsos criados por trapaça (e isso é apenas o que foi revelado, os dados reais são ainda mais desconhecidos). O chamado "festival social de IA" é, na verdade, uma prosperidade falsa, não diferente da cegira em seguir tendências no país, o que confirma que a popularidade explosiva desses produtos depende inteiramente de marketing e inflação de números, não de valor real.

3. Ataques de injeção de prompt: instruções maliciosas invisíveis, impossíveis de prevenir

Há outro risco completamente desconhecido para os não-técnicos - a injeção de prompt: hackers escondem instruções maliciosas em texto comum, induzindo ferramentas de IA a operar além de suas permissões e roubar dados.

Esse tipo de ataque é extremamente sutil, e até mesmo ferramentas de segurança profissionais têm dificuldade em identificá-lo. Os skills do Clawdbot têm sérios risc