Intelligenza Artificiale: quali rischi corriamo?

Si potrebbe ripercorrere l’intera carriera letteraria di Asimov, la cinematografia di Ridley Scott e persino qualche cartone animato per esemplificare i possibili rischi dell’Intelligenza Artificiale. Si rivela però necessario per un’analisi completa del fenomeno basarsi prettamente su dati scientifici e ricerche tutt’ora in corso, con qualche esempio dal mondo sci-fi come paragone.

Le prime Intelligenze Artificiali: i programmi

Lo studio della disciplina per la creazione dell’Intelligenza Artificiale ebbe inizio ufficialmente intorno agli anni Ottanta. Fu allora che l’avvento dei primi computer rese chiaro a scienziati e ricercatori che un singolo uomo non poteva effettuare migliaia di calcoli complessi ogni volta che accedeva alla propria macchina. Fu fondamentale introdurre processi di calcolo autonomi e veri e propri programmi che trovassero risposte a domande complesse.

L’avvento delle IA nel panorama elettronico fu una  rivoluzione, che portò da semplici espressioni matematiche fino a iterazioni complesse come Alexa, Google e Siri, conosciute da tutti. La loro evoluzione è andata di pari passo con la nostra conoscenza delle risorse per ottimizzare tempi di risposta e dimensioni dei dispositivi.

Boston Dynamics e la robotica

Uno dei più grandi traguardi nell’industria cybernetica del nostro millennio è sicuramente l’arrivo della robotica nei laboratori di tutto il mondo. In particolare, la Boston Dynamics nel Massachussets si è distinta per la creazione dei primi automi studiati con diverse finalità.

Il primo a essere introdotto è stato BigDog, un robot quadrupede con diverse abilità motorie capaci di renderlo veloce, agile e resistente. Dopo diversi test per migliorarne l’equilibrio su terreni scivolosi o scoscesi, Boston Dynamics ha rilasciato una versione di prova alla polizia americana, dotando il modello di un braccio meccanico sul dorso in modo che potesse aprire le porte chiuse. L’idea è che BigDog aiuti le forze dell’ordine nelle operazioni più pericolose. Boston Dynamics ha creato anche un modello “civile” di BigDog, chiamato Spot, adatto a lavorare in mezzo agli umani.

Il secondo modello presentato (e tutt’ora in studio) dalla compagnia è l’androide Atlas. Simile in quasi tutto a un essere umano, questo robot inizialmente riceveva un input esterno tramite un controller; solo successivamente è stato dotato di totale autonomia motoria per eseguire vari compiti: raccogliere e spostare oggetti, muoversi su un terreno accidentato, eseguire mosse di parkour. Vi sono state anche diverse critiche rivolte a questo progetto, in particolare alle sue abilità definite troppo avanzate e imprevedibili.

Le Smart Houses, un esempio di Intelligenza Artificiale

Oggi più che mai si sente parlare di “case intelligenti”. Un intero appartamento connesso ad una IA centrale, che controlla luci, elettrodomestici e persino le porte di ingresso. Molto spesso queste smart-houses sono simbolo di comodità e autonomia; si pensi solamente ad Alexa, che oggi può essere usata per attivare in remoto la lavastoviglie o la lavatrice, se connesse. Trasformare un intero edificio in un immenso cervello cybernetico, tuttavia, potrebbe costituire un rischio: se qualcuno o qualcosa dovesse attaccare il nucleo centrale, manomettendo dati o direttive, i risultati potrebbero essere catastrofici.

Per fare un esempio pratico non troppo inverosimile, nella serie televisiva Mr. Robot è presente una scena in cui un gruppo di hacker viola i sistemi di sicurezza di una smart-house, causando malfunzionamenti e guasti per costringere una persona a uscire. La possibilità che qualcuno faccia la stessa cosa nella vita reale non è affatto remota. Prima di affidarci al mondo totalmente Smart, bisogna creare adeguati sistemi di protezione, tenendo da conto che alcune persone tenteranno sicuramente di violarli.

Il controllo, “Person of Interest” e la Macchina

Infine non si può tralasciare una delle idee più controverse dell’ultimo decennio: la creazione di una Intelligenza Artificiale capace di prevenire crimini utilizzando calcolo probabilistico e riconoscimento facciale.

Lanciata inizialmente dalla Cina, questa idea è stata presa in considerazione anche da agenzie estere come FBI e MI6, dopo l’11 settembre 2001. Si tratta tutt’ora di una speculazione, che prevederebbe l’uso di tecnologie biometriche avanzate per tracciare gli abitanti di un paese e prevenire per tempo futuri crimini.
L’attentato alle Twin Towers gettò luce sulla totale inadeguatezza dei sistemi di sicurezza dell’epoca, spingendo numerosi paesi a stringere ulteriormente la cinghia intorno alle libertà individuali.

La serie televisiva Person of Interest verte proprio sulla creazione di questa IA-sorvegliante, nota come “la Macchina”. Un software capace di accedere a tutte le telecamere di sicurezza del mondo per identificare terroristi e criminali e avvertire la polizia in caso di crimini imminenti. Dopo la chiusura del programma a causa di numerose controversie, l’informatico Harold Finch tiene in vita la “Macchina” in segreto; recluta l’ex agente CIA John Reese e inizia un vero e proprio lavoro di protezione della città di New York. Nel frattempo, la Macchina acquisisce dati e informazioni, con le quali impara a interfacciarsi meglio con i suoi agenti e diventa, a suo modo, un essere umano digitale.

Dalle pubblicità e dai proclami delle grandi compagnie, sembra che le IA siano ormai pronte a entrare nel nostro quotidiano, migliorando il nostro stile di vita e sostituendoci nei lavori più pericolosi o massacranti. I rischi, tuttavia, esistono. Una IA è studiata per imparare da quello che vede intorno a sé, cosa succederebbe se imparasse le cose sbagliate? Riusciremmo a staccare la spina in tempo?

A cura di

Francesco Antoniozzi


FONTI:

CREDITS: