post

Di recente, Open AI ha presentato un modello di API Audio in grado di creare discorsi umani e messaggi vocali. Finora, è il software che si avvicina di più al vero linguaggio umano.
API Audio è in grado di riprodurre vocalmente il testo richiesto, consentendo agli utenti di scegliere fra una serie di opzioni vocali. Attualmente, non può essere utilizzato per creare voice deepfake, ma è indicativo del rapido sviluppo delle tecnologie di generazione vocale.

Sempre di recente, grazie all’Intelligenza artificiale, che ha combinato parti di una vecchia registrazione migliorandone la qualità audio, i Beatles hanno entusiasmato milioni di fan pubblicando una nuova canzone.
La domanda è: in futuro i modelli vocali sviluppati con l’AI potrebbero diventare un nuovo strumento nelle mani dei criminali informatici? 

Per ora la voce umana non è completamente imitabile 

La risposta è sì: nonostante i deepfake e gli strumenti utilizzati per realizzarli non siano ancora ben sviluppati o diffusi, il loro potenziale utilizzo nelle frodi è estremamente elevato. E la tecnologia non smette di evolversi.
Oggi non esiste alcun dispositivo in grado di produrre voice deepfake di alta qualità, ovvero, che non sia distinguibile dal vero parlato umano.

Tuttavia, negli ultimi mesi sono stati rilasciati sempre più strumenti per generare la voce umana.
Inoltre, se in precedenza gli utenti avevano bisogno di competenze almeno di programmazione di base, ora sta diventando più facile lavorare con questi strumenti
Insomma, a breve verranno sviluppati modelli che combineranno semplicità d’uso e qualità dei risultati.

Un esempio di frode riuscita

Le frodi che sfruttano l’Intelligenza artificiale per ora non sono frequenti, ma esistono già esempi di casi ‘riusciti’.
A metà ottobre del 2023, il venture capitalist americano Tim Draper ha avvertito i suoi follower su Twitter che i truffatori hanno usato la sua voce per alcune truffe. In particolare, Tim Draper ha segnalato che le richieste di denaro effettuate con la sua voce sono il risultato dell’Intelligenza artificiale.

Nonostante questo caso, finora la società non percepisce i voice deepfake come una possibile minaccia informatica. Poiché sono pochissimi i casi in cui vengono utilizzati con intenzioni malevole, le tecnologie di protezione tardano a diffondersi.

Il modo migliore per proteggersi è ascoltare attentamente

Per il momento, il modo migliore per proteggersi è ascoltare attentamente le parole dell’interlocutore al telefono. Se la qualità della registrazione è bassa, contiene rumori e la voce sembra robotica, non bisogna fidarsi delle informazioni ascoltate.

Un altro modo per testare ‘l’umanità’ dell’interlocutore è quello di porre domande insolite. Ad esempio, se l’interlocutore fosse un modello vocale, una domanda sul suo colore preferito lo lascerebbe perplesso, poiché non è quanto solitamente chiede la vittima di una frode. Il ritardo nella risposta renderà quindi chiaro che l’utente è stato ingannato.
Un’altra opzione è quella di installare una soluzione di sicurezza affidabile e completa. Sebbene non possa rilevare al 100% i voice deepfake, può aiutare gli utenti a evitare siti web sospetti, pagamenti e download di malware, proteggendo i browser e controllando tutti i file sul computer.