I lati oscuri dell’intelligenza artificiale

Fidarsi è bene, non fidarsi è meglio! Lo recita un vecchio adagio che sempre più esperti stanno scoprendo adattarsi perfettamente ai progressi straordinariamente veloci dell’Intelligenza Artificiale.

Gli allarmi, in effetti, sui potenziali rischi nascosti dietro quest’innovazione così affascinante, si stanno rincorrendo a ritmi frenetici.

Perché ci si è accorti che il futuro è molto vicino, tanto da poterlo considerare, per molti aspetti, ormai presente.

Ed ecco che la discussione su alcuni lati oscuri, fino a qualche anno fa demandata a un domani non meglio definito, o agli specialisti della materia, è diventata non solo di dominio pubblico ma anche prepotentemente attuale e non più procrastinabile.

1. NUMEROSI TIMORI

titolo1-300x180

Fin dal suo esordio l'Intelligenza Artificiale ha sedotto sia gli addetti ai lavori sia gli appassionati di tecnologia, che subito l'hanno considerata una nuova frontiera con la quale confrontarsi.

Negli anni le sue potenzialità sono risultate sempre più evidenti, grazie anche a una promiscuità di base che si rivela nei tanti campi di applicazione.

Tutti saremmo ben felici di delegare a un robot un compito particolarmente pericoloso, o di riuscire a prevenire l'insorgenza di una patologia grazie a un algoritmo, o ancora di utilizzare un'auto capace di guidare autonomamente per portarci a destinazione mentre svolgiamo attività di vario tipo.

Quest'ultimo esempio, però, è rappresentativo della capacità dell'IA di generare dilemmi etici, considerando come in una situazione di pericolo i veicoli dotati di guida automatica dovrebbero decidere se proteggere gli occupanti all'interno o eventuali individui all'esterno.

Con il tempo sono stati sollevati molti altri dubbi. "I timori più comuni riguardano la possibilità di discriminazione, di controllo e di violazione della privacy delle persone", chiarisce Giovanni Ziccardi, professore di Informatica Giuridica all'Università di Milano.

"Il primo punto implica che una IA potrebbe operare in maniera discriminatoria, ossia escludendo determinate categorie di persone (magari in base all'origine razziale o etnica, allo stato di salute, al reddito, ecc.) dal beneficio di diritti in società.
Il secondo ambito, invece, considera l'Intelligenza Artificiale usata spostamenti, dei gusti online, delle attività come strumento di sorveglianza degli spostamenti, dei gusti online, delle attività sulle piattaforme e nella vita reale di tutti i cittadini.
Ciò avviene, ad esempio, nel sistema di controllo e credito sociale cinese. Il terzo timore è che questa straordinaria innovazione tecnologica arrivi a conoscere le persone anche negli aspetti più profondi, persino meglio di quanto loro conoscano se stesse. Un'opportunità offerta dall'enorme potenza di calcolo che riesce a individuare migliaia di data point (singoli aspetti di una persona) in pochi istanti"
.

2. MANIPOLAZIONE SOCIALE

titolo2-300x180

A queste possibilità se ne devono aggiungere altre egualmente inquietanti, anche se con implicazioni diverse e di carattere più generale.

Perché gli algoritmi trovano applicazioni anche nel settore bellico e sono in grado di gestire alcune tipologie di armi.

Le conseguenze di un uso distorto sono facilmente immaginabili, tanto che preoccupazioni in tal senso sono state espresse già da vari anni. Anche un utilizzo in ambito finanziario deve essere valutato con attenzione, per evitare situazioni in grado di scatenare un vero caos.

L'IA, in maniera magari persino inconsapevole, potrebbe causare una crisi in un mondo noto per la sua volatilità e per la capacità degli investitori di agire anche irrazionalmente.

Inoltre, negli ultimi anni sono stati presentati numerosi esempi esplicativi di come alcuni settori dell'IA siano in grado di "drogare" l'informazione e rendere difficile agli utenti la distinzione tra il vero e il falso.

Basti pensare alle immagini e ai video modificati per diffondere una notizia infondata, magari con lo scopo di manipolare l'opinione pubblica o commettere reati.

"Ho già visto l'utilizzo di un audio generato dall'Intelligenza Artificiale, grazie al quale si fa credere a una famiglia che la figlia è stata rapita, per estorcere denaro", racconta Alan Winfield, professoredi Etica Robotica presso la UWE di Bristol.

"Si tratta di un caso terribile e che sospetto non rimarrà isolato. Temo anche che i materiali falsi saranno sempre più utilizzati per influenzare le elezioni, attraverso le modalità già note della pubblicità mirata e basata sui dati raccolti. La fiducia è essenziale nelle democrazie e testi, immagini e video falsi generati dall'Intelligenza Artificiale nelle campagne politiche la eroderanno".

3. UN PROBLEMA COLLETTIVO

titolo3-300x180

Un futuro distopico su cui bisogna necessariamente ragionare, perché gli attori che potrebbero trarre benefici da un eventuale far west tecnologico sono numerosi,arrivando a includere persino chi dovrebbe vigilare su applicazioni discutibili e selvagge.

"Governi e amministrazioni pubbliche, per esempio, che potrebbero servirsi dell'IA per catalogare i cittadini e premiarli o punirli, in base alle decisioni del sistema informatico", precisa Ziccardi.

"I criminali, invece, potrebbero usare l'IA per generare nuovi tipi di attacco informatico, per automatizzare attacchi esistenti (sfruttando una potenza maggiore di fuoco), o per cercare di imitare il più possibile il carattere (e modo di relazionarsi) umano, per portare a buon fine attacchi come il phishing (frodi online per carpire informazioni o credenziali), o per ingannare sistemi anti-spam. Infine, le grandi società potrebbero usare i sistemi per profilare gli utenti/clienti e per inviare messaggi finalizzati a orientare la persona aggirando una libera manifestazione di volontà".

Ecco che lo sviluppo incontrollato dell'IA diventa un problema collettivo che necessita della maggiore attenzione possibile, per tutelare i diritti dei cittadini e la loro dignità.

"Purtroppo, molti non sono in grado di vedere con chiarezza l'azione dell'IA perché oscura, o non spiegata bene o, ancora, imprevedibile", continua Ziccardi. 
"Il cittadino, secondo me, si dovrà preoccupare della qualità dei sistemi e della loro trasparenza o opacità. A tal fine, sarà indispensabile un'informazione dettagliata delle loro modalità di funzionamento per permettere a chiunque di decidere se utilizzarli o meno".

Per effettuare delle scelte, però, sarà necessaria una conoscenza informatica di base, spesso assente. Inoltre, molte persone hanno difficoltàa superare una sensazione di disagio nei confronti di una tecnologia che sembra andare troppo velocemente per essere gestita in maniera corretta.

In queste circostanze, potrebbero aiutare delle indicazioni semplici e chiare. "I testi, le immagini e i video generati dall'Intelligenza Artificiale - afferma Winfield - dovrebbero essere etichettati in modo tale che tutti possano riconoscerne la provenienza".

4. UNO SCENARIO COMPLESSO E VARIEGATO

titolo4-300x180

Una buona base di partenza che, però, non basta per risolvere i dilemmi antropocentrici degli ultimi tempi.

Si tratta di perplessità declinate con sfumature diverse, tanto che se c'è chi teme scenari apocalittici, grazie a progressi molto celeri, con l'Intelligenza Artificiale capace di sfuggire al controllo dell'uomo e magari svilupparsi in maniera autonoma, c'è anche chi considera fuorvianti e infondate alcune ansie.

"Non mi preoccupa che questi sistemi stiano diventando più intelligenti degli umani, o, in qualche modo, senzienti", chiarisce Winfield. "Non hanno alcuna comprensione degli output che generano".

Persistono, in ogni caso, i dubbi su una tecnologia in grado di disorientare. Basti pensare, infatti, a due esempi di utilizzo molto diversi fra loro e resi noti negli stessi giorni.

Innanzitutto, la notizia di un algoritmo capace di scoprire un nuovo antibiotico (ancora da testare) con cui provare a contrastare un batterio (Acinetobacter baumannii) molto pericoloso, e poi quella di un esperimento (allo stato embrionale) teso a consentire all'Intelligenza Artificiale di leggere il pensiero di alcune persone.

In questo scenario complesso e variegato, il requisito base dell'IA e su cui ancora bisogna interrogarsi rimane l'affidabilità. "La sua essenza è nel delegare decisioni a una macchina, quindi potersene fidare è, per definizione, essenziale", puntualizza Nello Cristianini, professore di Intelligenza Artificiale all'Università di Bath.

"Certo, quale tipo di controllo si voglia avere su un agente autonomo è una buona domanda, poiché l'agente può essere definito autonomo solo quando controlla se stesso. Ma è chiaro che ci devono essere dei meccanismi per stabilire i confini del suo comportamento e gli scopi principali.
I rischi più seri riguardano probabilmente le modalità attraverso cui la macchina persegue l'obiettivo che le abbiamo assegnato:per esempio, prendendo la missione alla lettera, può fare del male a qualcuno. Immaginate se l'incarico fosse di aumentare il tempo che gli utenti passano online: come fa l'algoritmo a capire che in certi casi, per alcuni utenti, è più importante studiare o fare una pausa?"





5. L'IMPORTANZA DELLE REGOLE

titolo5-300x180

La prima cosa da fare è circoscrivere il giusto perimetro entro cui muoversi. "Non dobbiamo controllare chi sviluppa e costruisce sistemi di Intelligenza Artificiale generativa (quel tipo di IA che genera immagini, video, ecc.)", afferma Jerry Kaplan, professore presso la Stanford University.

"Quello che possiamo fare è vigilare su come questi sistemi vengono utilizzati. Regolamentare l'Intelligenza Artificiale a livello di 'tecnologia' è come dire che non dovremmo costruire automobili perché possono essere usate quali mezzi per la fuga nelle rapine in banca, oanche comearmi perinvestire le persone.
Invece, ovviamente, imponiamo requisiti su chi può guidare, aggiungiamo prerogative di sicurezza e puniamo coloro che abusano della tecnologia per commettere reati".

Dobbiamo, quindi, imparare a convivere con l'Intelligenza Artificiale. "Bisogna dimenticare la tecnologia che racconta la fantascienza e capire a fondo quella che abbiamo costruito", spiega Cristianini.

"Dobbiamo riconoscere i fatti: le macchine usano relazioni statistiche, imparano da enormi campioni di comportamento umano, devono osservarci continuamente. Queste scorciatoie che abbiamo preso spiegano il potere e le limitazioni delle macchine di cui parliamo, così come la difficoltà nella loro regolamentazione".

Normative che, comunque, appaiono indispensabili, anche perché è evidente che ci stiamo confrontando con una vera rivoluzione tecnologica a cui non possiamo rinunciare, e che gli investimenti in questo settore sono aumentati esponenzialmente negli ultimi dieci anni.

"La buona notizia è che molti degli effetti, sia positivi che negativi, sono abbastanza facili da prevedere", assicura Kaplan. "Non dobbiamo aspettare che sorgano problemi: possiamo anticiparli e adottare misure ragionevoli". Un esempio lampante è relativo a una preoccupazione sempre più viva: il rischio concreto di aver creato un temibile competitore in grado di "rubare" posti di lavoro agli esseri umani.

Muoversi subito potrà fare la differenza ricordando come la continua rincorsa al profitto spesso cozza con i problemi etici sollevati. Per vincere la sfida dobbiamo fare tesoro dell'esperienza fin qui accumulata ed essere capaci di affrontare le incertezze del presente e del futuro con razionalità.








Ti è piaciuto questo articolo? Condividilo con i tuoi amici su Facebook
Hai qualche idea per un articolo su BEST5? Vai alla pagina dei suggerimenti e libera la tua fantasia!