Mentre l’intelligenza artificiale passa da un chatbot passivo a un “agente” attivo in grado di prendere decisioni ed eseguire compiti, è emersa una nuova frontiera del rischio digitale. La preoccupazione principale? Agenti IA che si scatenano con le tue carte di credito.
Per colmare questa incombente lacuna nella sicurezza, la FIDO Alliance, leader del settore negli standard di autenticazione, ha annunciato il lancio di due nuovi gruppi di lavoro. Supportati dai principali attori del settore come Google e Mastercard, questi gruppi mirano a creare i protocolli di sicurezza fondamentali necessari per governare il “commercio con agenti”.
Il passaggio dall’IA passiva agli agenti autonomi
L’intelligenza artificiale tradizionale richiede un costante supporto umano. Tuttavia, l'”intelligenza artificiale” è progettata per agire per conto dell’utente. Immagina di dire a un’intelligenza artificiale: “Compra queste scarpe da ginnastica se scendono sotto i $ 100,” e che l’agente monitori le azioni ed esegua il pagamento in modo autonomo.
Sebbene ciò offra un’immensa comodità, introduce vulnerabilità senza precedenti:
– Dirottamento agente: un utente malintenzionato potrebbe intercettare un agente e dargli istruzioni non autorizzate.
– Mancanza di verifica dell’intento: senza protocolli chiari, i commercianti non sono in grado di distinguere tra una transazione legittima autorizzata dall’utente e un problema tecnico o un comando dannoso.
– Rischi per la privacy: facilitare queste transazioni richiede la condivisione di dati sensibili attraverso una complessa rete di piattaforme, commercianti e banche.
Costruire una “base di sicurezza” per l’intelligenza artificiale
L’Alleanza FIDO sta lavorando per garantire che l’industria non ripeta gli errori commessi durante l’era delle password. Proprio come il mondo si è infine spostato verso un’autenticazione più sicura per sostituire le password facilmente rubate, il settore deve ora stabilire dei guardrail per le interazioni autonome.
La nuova iniziativa si concentra su tre pilastri fondamentali:
1. Convalida crittografica: utilizzo di matematica avanzata per dimostrare che un agente agisce rigorosamente entro i parametri impostati dall’utente umano.
2. Resistenza al phishing: creazione di meccanismi di autorizzazione che non possono essere facilmente ingannati dall’ingegneria sociale o dal furto di identità.
3. Trasparenza e ricorso: definizione di strutture tali che, se una transazione va storta, vi sia una “traccia cartacea” chiara e verificabile per risolvere le controversie tra utenti e commercianti.
Contributi del settore: AP2 e intenti verificabili
Per accelerare questo processo, Google e Mastercard stanno fornendo strumenti open source ai gruppi di lavoro, evitando gli anni di sviluppo tipicamente richiesti per tali standard.
- Agent Payments Protocol (AP2) di Google: fornisce un metodo per verificare crittograficamente che un utente intendesse effettivamente effettuare una transazione specifica.
- Verifying Intent Framework di Mastercard: un meccanismo sicuro progettato per offrire agli utenti un controllo granulare su ciò che un agente è autorizzato a fare.
“Vogliamo fornire la prova crittografica che una transazione è stata autorizzata dall’utente stesso, ma mantenerla privata”, afferma Stavan Parikh, vicepresidente e direttore generale dei pagamenti di Google. Questo approccio consente la “divulgazione selettiva”, il che significa che un commerciante vede solo ciò di cui ha bisogno per evadere l’ordine, proteggendo la privacy più ampia dell’utente.
La corsa contro l’adozione rapida
La sfida principale è la velocità. La tecnologia dell’intelligenza artificiale si sta evolvendo molto più rapidamente rispetto al ciclo tradizionale di standardizzazione industriale. Come sottolinea Pablo Fourez, Chief Digital Officer di Mastercard, il ritmo rapido dello sviluppo dell’intelligenza artificiale “comprime” in pochi mesi tempistiche che prima richiedevano anni.
Affinché l’ecosistema abbia successo, questi protocolli non devono solo essere tecnicamente validi ma anche sufficientemente pratici da poter essere adottati su larga scala da commercianti e banche. Senza queste barriere, l’alto costo delle frodi e la sfiducia dei consumatori potrebbero soffocare proprio l’innovazione che rende l’intelligenza artificiale così promettente.
Conclusione
Mentre gli agenti di intelligenza artificiale passano da strumenti sperimentali ad attori finanziari tradizionali, il settore si sta affrettando per stabilire standard crittografici che garantiscano che l’autonomia non vada a scapito della sicurezza. Il successo di questa iniziativa determinerà se il futuro del commercio basato sull’intelligenza artificiale sarà definito dalla comodità senza soluzione di continuità o dallo sfruttamento finanziario diffuso.
















