Pochi secondi di attesa e accederai al tuo pannello

Caricamento in corso...

chiudi

intelligenza artificiale...

L’altra faccia dell’intelligenza artificiale: The Malicious Use of Artificial Intelligence

La potenza è niente senza il controllo. Il detto si applica anche all’Intelligenza Artificiale, fonte di grandi aspettative ma anche di timori per i suoi possibili sviluppi. A rilanciare l’allarme è il report The Malicious Use of Artificial Intelligence (“L’uso malvagio dell’intelligenza artificiale”) curato dagli accademici delle università di Cambridge e Oxford e dai ricercatori di importanti società di cyber sicurezza e associazioni di diritti digitali.

 

 

A firmare il rapporto sono, tra gli altri, i ricercatori del gruppo OpenAI: tra i co-fondatori di quest’ultimo figura anche Elon Musk, amministratore delegato di Tesla, società sempre più focalizzata sulle applicazioni AI. Per evitare conflitti di interessi, dopo la pubblicazione del report Musk avrebbe deciso di lasciare il board del gruppo di ricerca, e non è proprio un caso.

 

Secondo OpenAI, le macchine intelligenti dovranno convivere in futuro con nuove metodologie, capaci di tutelare la privacy e di sposare in maniera efficace innovazione e sicurezza. Quali sarebbero, dunque, i rischi che minacciano di far saltare questo delicato equilibrio secondo The Malicious Use of Artificial Intelligence?

 

I rischi del machine learning tra guida automatica, spear phishing e riconoscimento vocale

Da sempre, l’immaginario legato all’intelligenza artificiale è ambivalente, a cavallo tra opportunità e minaccia. Largamente incentrate sul machine learning, le nuove tecnologie schiudono scenari affascinanti, ma densi di pericoli. Il report elenca vari esempi di usi malevoli delle stesse.

 

Restando in tema Tesla, potremmo citare il caso delle self driving cars, da sempre descritte come uno strumento in grado di prevenire gli incidenti stradali e di rendere più precisa e sicura la guida. Cosa accadrebbe, tuttavia, se la loro capacità di riconoscere i segnali di stop venisse compromessa da un hacker? Allo stesso modo, i droni intelligenti usati per i servizi di consegna potrebbero – in via ipotetica ma non troppo – essere dirottati e trasformati in armi.

 

Oltre alla sicurezza fisica dei dispositivi, ad essere a rischio è la sicurezza digitale. Come tenere sotto controllo la vulnerabilità dei software? Il report cita la probabilità di assistere ad attacchi informatici sempre più estesi e ai tentativi di sfruttare punti deboli quali i software di sintesi vocale per l’accesso ai device.

 

All’orizzonte si profilano meccanismi di spear phishing automatico sempre più sofisticati, favoriti da strumenti di profilazione del target ogni giorno più evoluti.

 

Il lato oscuro dell’intelligenza artificiale tra privacy, propaganda e sorveglianza

In sintesi, quali conseguenze avrà la capacità delle macchine di analizzare in modo sempre più sofisticato il comportamento umano? C’è da immaginare che non saranno tutte positive, senza per forza scomodare la fantascienza e la rivolta delle macchine contro il proprio creatore. The Malicious Use of Artificial Intelligence punta il faro anche sulla sicurezza politica, sul rischio di manipolazione sociale e  sul lato oscuro degli strumenti di profilazione e di sorveglianza.

 

Non c’è dubbio che l’impiego dei big data risulti molto controverso sul fronte della privacy. Attraverso la raccolta e l’analisi dei dati degli utenti, ad esempio, i social network possono essere utilizzati per veicolare disinformazione e propaganda. I timori si concentrano in particolare sui deepfakers: il report cita il rischio che video falsificati, creati con software appositi che consentono di alterare le immagini e sostituire i volti, vengano sfruttati per confondere l’opinione pubblica e per rendere più opaca l’informazione.

 

Nei casi più gravi – e negli scenari più autoritari – l’intelligenza artificiale potrebbe essere utilizzata in modo spregiudicato per reprimere il dissenso e applicare gravi forme di controllo sociale. Per ogni strumentalizzazione negativa del machine learning – c’è da sperare – è pronto a sorgere anche il relativo antidoto, in una continua lotta tra chi attacca e chi difende. Sicuramente c’è molto sui cui lavorare.

 

Fonte: ADJournal

« torna all'elenco