• Notizie

    Il lato oscuro delI’A.I. tra deepfake video e altri 17 tipi di reato

    L’University College di Londra ha classificato gli ambiti in cui rischia di favorire il crimine

    di Redazione Open Innovation | 30/11/2020

Una tecnologia in continua evoluzione come l’Intelligenza Artificiale può rivelarsi molto utile nei prossimi 15 anni, ma non solo per aziende, privati e istituzioni… anche per i criminali. Uno studio dello University College di Londra ha infatti identificato e classificato tutti gli ambiti nei quali l’AI potrà essere sfruttata dal crimine nel prossimo futuro.

Lo studio, pubblicato da Crime Science Journal, è stato condotto coinvolgendo diversi esperti tra cui criminologi, investigatori, legali, ufficiali di polizia, manager d’azienda e ha individuato ben 18 tipi diversi di reato che potranno essere commessi impiegando tecnologie legate all’Intelligenza Artificiale.

Ne è emerso che il più pericoloso, ma anche quello probabilmente più frequente nei prossimi anni, sarà la creazione di deepfake video. C’è insomma la possibilità che i criminali, grazie all’Intelligenza Artificiale, possano creare falsi video da pubblicare online per diffondere messaggi destabilizzanti e fake news, pilotare intenzioni di voto, addirittura destabilizzare governi.

Politica a rischio: incentivare il senso critico

I falsi video vengono considerati dagli autori dello studio tra i crimini più pericolosi dei prossimi 15 anni proprio perché governanti e leader di partito possono loro malgrado diventare protagonisti di video dove si pronunciano su ogni argomento con dichiarazioni montate ad arte, a vantaggio di chi li vuole danneggiare o vuole destabilizzare il loro sistema politico.

Il livello tecnologico sempre più avanzato rende infatti questo tipo di prodotti praticamente indistinguibili rispetto a un video che riprenda i soggetti autentici: l’unico rimedio efficace, si spiega nello studio, sarà quello di coltivare e incentivare il senso critico delle persone, affinando la loro capacità di distinzione tra messaggi che potrebbero essere falsi e la verità.

 

CONDIVIDI
I nostri canali social