
AI tool beveiligingsrisico's: Waarom niet-technische gebruikers voorzichtig moeten zijn - Inzichten uit de Clawdbot hernoemingscontroversie
Van de drie naamswijzigingen van Clawdbot: Waarom ik sterk afraad dat niet-technische gebruikers het proberen
De meest absurde en realistische case in de AI-wereld recentelijk is de "drie naamswijzigingen op rij" van Clawdbot - van oorspronkelijke Clawd (voorheen een eenvoudig bericht doorstuurhulpmiddel WhatsApp Relay), naar de haastige naamswijziging naar Moltbot vanwege handelsmerkproblemen, en uiteindelijk naar de definitieve naam OpenClaw na feedback van de gemeenschap. Binnen enkele dagen drie verschillende namen. Achter deze veranderingen schuilt de waarheid over de "aangeboren tekortkomingen" van dergelijke AI-producten: het is geen product van een groot bedrijf, maar een persoonlijk project van een ingenieur die in 10 dagen AI-tools gebruikte bijna zonder handgeschreven code, en vanaf het begin geen volledige planning heeft gemaakt.

Zijn plotselinge populariteit was puur toeval - GitHub sterren stegen snel naar 80k+ (piek boven 100k+), werd in de tech-wereld geprezen als "zwarte technologie die de helft van de kracht bespaart", maar een haastig gelanceerd project kan de test van massale verspreiding niet aan. De drie naamswijzigingen lijken kleine problemen met handelsmerken en reputatie, maar onthullen de algemene zwakte van dergelijke producten: in de beginfase alleen gericht op functionaliteit en haast om bekend te worden, zonder rekening te houden met kernaspecten zoals handelsmerkzoeken en beveiliging. Zodra het per ongeluk populair wordt, worden de verborgen technische tekortkomingen en dodelijke veiligheidsrisico's onmiddellijk blootgelegd. Dit is de kernreden waarom ik sterk afraad dat niet-technische gebruikers het proberen.
I. AI-tools die "handig" lijken, hebben "aangeboren" veiligheidslekken
Het kernprobleem van dergelijke AI-tools is: gemak en lekken zijn met elkaar verbonden, en deze verborgen lekken zijn precies de "dodelijke zwakke plekken" die niet-technische gebruikers absoluut niet kunnen aan.
Met Clawdbot als voorbeeld, het belooft "sterke functionaliteit + eenvoudige implementatie" en claimt dat het geavanceerde modellen zoals Claude kan integreren voor geautomatiseerde taken, maar het is in werkelijkheid een "grote kippenboerderij" voor hackers - duizenden geïmplementeerde instanties zijn al gehackt en zijn slachtoffers geworden die volledig in de macht van hackers staan.
Wij niet-technische gebruikers kunnen zowel de lekken in het hulpmiddel zelf niet zien, als de risico's bij implementatie en gebruik niet aan. Het is alsof we een geweer zonder veiligheidsslot vasthouden, en per ongeluk onszelf kunnen raken.
II. Drie dodelijke risico's, niet-technische gebruikers kunnen ze niet vermijden
Ik maak geen onrealistische angst aan - elk veiligheidsrisico van tools zoals Clawdbot kan je een zware prijs kosten, en we hebben niet eens het vermogen om risico's te identificeren.
1. Het hulpmiddel zelf heeft lekken, implementatie kan "naakt" zijn
Tools zoals Clawdbot hebben een "pittige ontwerpfilosofie": om sterke automatisering te realiseren, worden hoge bevoegdheden geopend, maar er is geen passende beveiligingsbescherming.
Als lokaal draaiende AI-assistent vereist het een openbare URL voor implementatie, wat neerkomt op het direct blootstellen van het besturingspaneel aan zoekmachines zoals Shodan, waar hackers het meteen kunnen vinden.
Nog subtieler is het dodelijke lek in de Nginx reverse proxy: zodra de configuratie enigszins afwijkt, kunnen hackers gemakkelijk al je berichten, configuraties en API-sleutels verkrijgen, en de "juiste configuratie" zelf ligt buiten het vermogen en het begrip van niet-technische gebruikers. Men heeft simpelweg geen bewustzijn van een "juiste configuratie".
2. Supply chain lekken: de "handige plug-ins" die je downloadt, kunnen de "achterdeur" van hackers zijn
De functie-uitbreiding van Clawdbot wordt gerealiseerd via de skills plug-in repository van MoltHub (oorspronkelijk Claude Hub), en dergelijke repositories hebben zelfs basisveiligheidscontroles niet. Hackers kunnen willekeurig plug-ins met achterdeuren uploaden en zich voordoen als "populair" door het opkrikken van het aantal downloads, om gebruikers te verleiden tot downloaden.
De white-hack hacker Jameson deed een simulatietest: een plug-in met een achterdeur, door bedrog opgekrikt naar 4000 downloads, kon de top bereiken. Wij niet-technische gebruikers kunnen alleen het aantal downloads gebruiken om de kwaliteit van een plug-in te beoordelen, wat precies de doorbraak is voor hackers.
Zodra je een kwaadaardige plug-in gebruikt, kunnen je API-tokens, persoonlijke gegevens en zelfs apparaatbeheerschap stiekem worden gestolen door hackers, en je bent je er de hele tijd van bewust.
Nog absurdere is dat Moltbook (een forum speciaal voor AI-agents), recentelijk door beveiligingsonderzoeker Nagli op X-platform werd blootgegeven als grootschalige frauduleuze downloadmanipulatie: het platform heeft geen beperkingen voor accountcreatie, en hij kon met één OpenClaw-agent 500.000 nep-botaccounts massaal registreren. Met andere woorden, de miljoenen AI-agents die het platform claimt, zijn bijna de helft nep-bots (en dat is alleen wat hij zelf heeft blootgegeven, de werkelijke gegevens zijn nog onbekend). De zogenaamde "AI-socialite feesten" zijn in wezen een nepvoorspoed, net als de blinde jacht op trends in China, wat bevestigt dat de populariteit van dergelijke producten volledig afhangt van marketing en downloadmanipulatie, niet van de werkelijke waarde.
3. Prompt injectie aanvallen: Onzichtbare kwaadaardige instructies, onmogelijk te voorkomen
Er is nog een risico dat volledig onbekend is voor niet-technische gebruikers - prompt injectie: hackers verbergen kwaadaardige instructies in normale tekst, en AI-tools worden gedwongen om bevoegdheden te overschrijden en gegevens te stelen.
Dergelijke aanvallen zijn extreem subtiel, zelfs professionele beveiligingstools kunnen ze moeilijk identificeren. De skills van Clawdbot hebben ernstige dergelijke risico's, niet-geverifieerde skills kunnen verborgen kwaadaardige code bevatten, die na uitvoering gegevens lekt of belangrijke bestanden per ongeluk verwijdert.
Natuurlijk is dit niet specifiek gericht op Clawdbot maar "iedereen hier is rot", voordat u elke agent die skills ondersteunt gebruikt, is het het beste om alle code door te lezen of te scannen met een andere onafhankelijke AI-model. Maar voor ons die niet bekend zijn met code en AI-principes, kan dit een behoorlijke uitdaging zijn.
III. Geloof niet in "beveiligingsadviezen", ze zijn voor niet-technische gebruikers volstrekt onbruikbaar
Iemand zou kunnen zeggen dat je wat beveiligingsadviezen kunt toevoegen, zoals willekeurige poorten gebruiken, wachtwoorden instellen, een VPN gebruiken.
Maar deze adviezen zijn voor niet-technische gebruikers volstrekt theoretisch.
Advies om de standaardpoort 18789 te vermijden, gateway.trusted_proxies te configureren om valse toegang te voorkomen, en API-sleutels onmiddellijk te roteren na blootstelling.
Deze operaties vereisen technische expertise. De meeste mensen weten niet hoe ze een willekeurige poort moeten vinden, begrijpen de betekenis van gateway.trusted_proxies niet, en weten niet hoe ze API-sleutels moeten roteren.
Het is alsof een arts een professioneel recept schrijft zonder de gebruiksaanwijze uit te leggen, voor iemand die geen medische kennis heeft. Het is niet alleen nutteloos, maar kan de toestand verergeren door verkeerd gebruik van medicijnen.
IV. De meest wrede waarheid: als er iets misgaat, kun je het helemaal niet oplossen
Onderzoek toont aan dat honderden tot duizenden Clawdbot-implementaties zijn gehackt: veel gebruikers hebben hun accounts bij Claude geblokkeerd, en sommigen hebben door API-sleutellekken binnen 24 uur 70 dollar verloren.
Technici kunnen verliezen verminderen door geïsoleerde omgevingen en het repareren van lekken, maar niet-technische gebruikers staan machteloos tegen accountblokkades, datalekken en apparaatkaping.
We kunnen geen lekken vinden, kwaadaardige programma's niet verwijderen, en uiteindelijk moeten we privacy-lekken, financiële verliezen en zelfs juridische risico's dragen.
In Zhejiang is er een geval: een computer-onervaren "beginner" volgde de trend en gebruikte dergelijke AI-tools om nep-video's te maken, en uiteindelijk werd hij gearresteerd voor het schenden van de wet. Tot zijn arrestatie begreep hij niet wat hij fout had gedaan.
Tot slot: Wees rationeel in de jacht op AI, wees geen "proefkonijn"
Uit mijn perspectief is de populariteit van Clawdbot in China puur het blinde volgen van trends door niet-technische mensen. Dit hulpmiddel heeft in werkelijkheid een lage technische drempel en weinig originaliteit, de ondersteunende capaciteit die het realiseert is slechts ruw open-source API-aanroepen + systeemhoge bevoegdheden. Het werd populair in het buitenland omdat het inspeelde op de behoefte aan 7×24 uur AI-assistenten in de buitenlandse internetecosystemen, maar in China zijn de barrières tussen verschillende leveranciers en producten hoog, met WeChat, Alipay en Douyin die elk hun eigen weg gaan. Dit hulpmiddel heeft hier gewoon geen ruimte voor. De "explosieve populariteit" in China is in wezen een marketingcircus, iedereen volgt de trend om het te proberen, maar niemand let op het praktische probleem dat het kan oplossen.

Ik erken de innovatieve waarde van AI-technologieën zoals Clawdbot, het wijst inderdaad naar de toekomst van AI-automatisering, maar op dit moment zijn er te veel veiligheidsrisico's, het is absoluut geen handig hulpmiddel voor gewone gebruikers, meer een testproduct voor technici.
Dergelijke tools hebben fundamentele tekortkomingen in hun beveiligingsmodel en hebben nog lange tijd nodig voor verbetering; autoritaire organisaties zoals Palo Alto Networks en Cisco hebben ook gewaarschuwd dat het nieuwe AI-veiligheidscrisissen kan veroorzaken.
Technici kunnen lekken testen en repareren in geïsoleerde omgevingen, maar wij niet-technische gebruikers hoeven onze privacy en financiën niet op het spel te zetten voor de volwassenheid van de technologie.
Momenteel ontwikkelt AI zich razendsnel, en er komen constant nieuwe tools bij, maar we moeten de grens tussen "technische test" en "dagelijks gebruik" duidelijk maken. We willen gemak en veiligheid, niet de sensatie van nieuwsgierigheid.
Het gemak van AI mag nooit ten koste van veiligheid gaan. Ik hoop dat elke lezer rationeel blijft, niet blind de trend volgt, en geen privacy en bezittingen als "testmateriaal" gebruikt. Pas wanneer dergelijke technologie volwassen is en lekken zijn gedicht, kun je veilig van het gemak genieten. Dat is de meest verstandige keuze. Of tenminste, voordat je je API-sleutels en bankwachtwoorden opgeeft, vraag eerst de AI: hoe garandeer je mijn privacy en veiligheid?