L’allarme degli esperti sugli agenti intelligenti: la regola per scegliere un modello senza rischI

Nel mirino degli esperti è finito in particolare Moltbot, precedentemente noto come Clawdbot
Negli ultimi giorni, esperti di sicurezza informatica hanno lanciato un forte avvertimento sull’uso di Moltbot, l’agente di intelligenza artificiale precedentemente noto come Clawdbot. Heather Adkins, vicepresidente della sicurezza di Google Cloud, ha espresso preoccupazione su X, sottolineando come l’applicazione, pur promettendo automazione avanzata, possa esporre gli utenti a rischi concreti per i propri dati e per la sicurezza dei dispositivi. Analisti come Jamieson O’Reilly hanno confermato che istanze di Moltbot mal configurate possono rivelare chiavi API, token di accesso e altri dati sensibili, aumentando il pericolo di compromissioni.
Le criticità nascoste dietro l’autonomia di Moltbot
I problemi principali derivano dal modello di funzionamento stesso del software. Moltbot richiede accesso profondo al dispositivo e ai servizi dell’utente per automatizzare attività come la gestione di email, messaggi o appuntamenti. Se le credenziali vengono memorizzate in modo poco sicuro, malware o configurazioni errate possono compromettere informazioni personali e aziendali. Inoltre, la mancanza di restrizioni e di sistemi di monitoraggio rende l’agente particolarmente vulnerabile a manipolazioni o errori, differenziandolo dai servizi più controllati.
Agenti AI a confronto: potenzialità e limiti
A differenza di Moltbot, altri agenti AI come AutoGPT o i cosiddetti ChatGPT Agent operano spesso in cloud con controlli di sicurezza più robusti e limitazioni sull’accesso ai dati sensibili. Questi strumenti possono automatizzare compiti simili, ma generalmente non hanno accesso diretto alle risorse locali dell’utente, riducendo i rischi di esposizione. Moltbot si distingue invece per la sua autonomia e per la possibilità di operare direttamente sul dispositivo, caratteristiche che ne aumentano il potenziale ma anche i pericoli se utilizzato senza precauzioni. In sostanza, gli esperti invitano alla cautela: chi decide di sperimentare con agenti AI avanzati deve essere consapevole dei rischi e preferire ambienti controllati o soluzioni con protezioni integrate.
La regola d’oro per scegliere un agente AI
Il concetto più importante da capire prima di scegliere un agente AI riguarda dunque il luogo in cui il software esegue le operazioni. Gli agenti più sicuri, come AutoGPT in cloud o ChatGPT Agent, lavorano su server remoti controllati, con policy di sicurezza, logging e restrizioni che limitano l’esposizione dei dati sensibili. Moltbot, al contrario, funziona direttamente sul dispositivo dell’utente, con accesso completo al sistema e ai dati locali: qualsiasi errore, configurazione insicura o presenza di malware sul computer può mettere a rischio informazioni personali o aziendali.

Commenta per primo.