Verso un’etica dell’Intelligenza Artificiale

robot-arm-law

 Intelligenza Artificiale: timori e polemiche

Il 28 luglio 2015 alla 24ª conferenza internazionale congiunta per l’intelligenza artificiale (IJCAI) veniva presentata una lettera aperta che avrebbe fatto rapidamente il giro del mondo, e alimentato dibattiti e dubbi, anche grazie ad alcune presenze illustri tra i firmatari1 .

Quello della lettera è un monito all’uso di armi guidate da intelligenza artificiale (IA). Il timore espresso è che lo sviluppo di queste armi porterebbe a una corsa agli armamenti autonomi. Droni e armi sono oramai decisamente accessibili al giorno d’oggi. In fin dei conti, considerando la velocità con cui l’Intelligenza Artificiale si sviluppa, rischiamo di arrivare ad armi autonome alla portata di tutti.

drone-apocalypse

Futuro apocalittico con armi autonome (scena dal gioco Call of Duty – Activision)

La diffusione di film di fantascienza distopici negli ultimi 20 anni ha sicuramente contribuito a creare falsi miti e aspettative. La gente potrebbe quindi chiedersi se i rischi dipinti dalla lettera sono in fin dei conti realistici o meno.

Il primo punto da notare è che con “Intelligenza Artificiale” non parliamo semplicemente di macchinari più evoluti. Parliamo di una svolta epocale, verso un futuro in cui questi sistemi autonomi potrebbero addirittura rimpiazzarci del tutto.

Sistemi autonomi, dotati di intelligenza artificiale sofisticata significa potenzialmente bypassare il controllo umano. Una volta usciti dal loop entriamo in un mondo nuovo, dove il concetto di “responsabilità” diventa sfumato.

Ma cos’è questa Intelligenza Artificiale?

Per cominciare possiamo prendere a prestito definizioni da varie fonti:

ai-tobe-or-not-tobeDizionario di Medicina Treccani: “L’intelligenza artificiale consiste in un insieme eterogeneo di tecniche e metodi volti a costruire sistemi artificiali dotati di capacità cognitive, che siano quindi capaci di riconoscere, classificare, ragionare, diagnosticare e anche agire, o che siano dotati almeno di alcune di queste proprietà”.

Wikipedia: “L’intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è l’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana”.

Il Test di Turing

Alan Turing già nel 1950 propose un test per indirizzare un nuovo tipo di problema “Le macchine possono pensare?”2. In sintesi l’idea che proponeva era di limitare l’osservazione al comportamento della macchina. Se ai nostri occhi è indistinguibile dal comportamento umano, allora possiamo dire che la macchina è in grado di “pensare”.

turing-test

Test di Turing: [A] tenta di determinare tramite una chat (scritta o a terminale) se l’interlocutore è umano [C] o una macchina [B]

Questo approccio “black-box” implica che il processo sottostante una decisione o un comportamento sia in fin dei conti irrilevante.  È “il risultato” (o l’apparenza di esso) che conta.

Ma è corretto basare le valutazioni sull’apparenza? Per quanto possa sembrare strano, va tenuto presente che le interazioni umane si basano quasi interamente su aspettative e pregiudizi. Prova ne è che ci sono sia casi di software “non intelligente” che ha passato il test 3, sia casi di umani che l’hanno fallito4.

Questo genere di approccio ci rimanda alla questione di cosa sia in effetti l’intelligenza e come (se) sia possibile misurarla.

Sviluppi

Ok, la domanda rimane: le preoccupazioni della open letter sono giustificate? Dobbiamo preoccuparci?

Perché questi scenari si realizzino occorrono sviluppi e tecnologia in due ambiti:

  • Supporto: parliamo di robots o droni, in grado di essere impiegati con precisione e relativa economicità in ambito militare.
  • Un’intelligenza Artificiale in grado di controllarli e prendere decisioni in autonomia.

Robotica

E’ di dominio pubblico che il ministero della difesa americano abbia fondato M3, un programma per la creazione di sistemi in grado di portare a un nuovo livello la mobilità e capacità manipolativa di robot. Dato il finanziatore, è abbastanza facile immaginare che le finalità ultime siano essenzialmente militari.

Per capire lo stato di avanzamento all’interno di questo programma basta dare un’occhiata al sito di Boston Dynamics (acquisita da Google nel 2013, poi ceduta a SoftBank lo scorso luglio), per vedere robots autonomi in grado di correre oltre 30 mph, rimanere in equilibrio anche in seguito a forti spinte, anche su ghiaccio.

Impieghi militari

Abbiamo visto come la ricerca militare stia evolvendo molto rapidamente nella produzione di robots in grado di muoversi autonomamente 5. Questa ricerca è finanziata dal DARPA, e quindi non è irragionevole pensare che l’obiettivo finale sia in operazioni sul campo.

Robots di questo genede richiedono investimenti notevoli, che non sono alla portata di tutti. Tuttavia, anche lo stesso impiego nelle forze armate regolari solleva problemi etici ancora da affrontare.

Droni: Armi letali a basso costo?

I droni telecomandati (anche via smartphone) non sono più una curiosità: aziende come Parrot e Dji hanno oramai invaso il mercato con i loro quadrirotori, oramai alla portata praticamente di chiunque6.

desert-wolf-drone

Drone costruito da Desert Wolf, equipaggiato con fucili di paint-ball a scopo antisommossa

Questi droni hanno oramai raggiunto elevati livelli di stabilizzazione e sono sofisticati abbastanza da poter volare in formazione coordinata. Inoltre sono praticamente impossibili da rilevare e… sono programmabili.

Non ci vuole un’immaginazione fuori dal comune per pensare di sostituire le videocamere con armi da fuoco. In effetti girano già video di droni equipaggiati con armi per antisommossa, o addirittura equipaggiati con lanciafiamme (!).

Il problema dell’autonomia

L’Intelligenza Artificiale non è fantascienza, ma è già parte delle nostre vite. Si trova praticamente ovunque: riconoscimento vocale negli smartphone, riconoscimento facciale da video e fotografie7, diagnosi mediche, videogiochi…

La lettera sottoscritta da Hawking e Musk ha ovviamente sollevato polemiche e discussioni, dalla negazione che esista alcuna “corsa” per questo genere di armamenti, alle accuse più generiche di instillare panico non necessario.

L’argomento è così sentito che MIRI (Machine Intelligence Research Institute) si occupa di ricerca matematica di base per assicurarsi che sistemi “smarter than humans” abbiano impatto positivo, ed Elon Musk (uno dei firmatari della lettera) arriva a donare 10 milioni di dollari per “mantenere l’intelligenza artificiale benefica”.

Creatività e Brain Control

La superiorità dei calcolatori si è andata ampliando dalla velocità bruta ad attività che ci piaceva pensare nostra prerogativa.

Già oggi esistono sistemi con performance migliori delle nostre in compiti come scacchi, Jeopardy!8, data mining e dimostrazione dei teoremi. D’altra parte stanno però emergendo applicazioni di IA coinvolte in compiti “creativi”, come la produzione autonoma di musica, di narrativa9. Inoltre è dominio pubblico che sia Facebook che Google abbiano sviluppato reti neurali10 in grado di generare immagini artistiche originali. Cito anche AARON, sviluppato da Cohen negli anni ’70, che è addirittura in grado di dipingere.

Gli ultimi avanzamenti nel brain control sono inoltre pertinenti alla nostra discussione. Infatti, già negli anni ’70, José Delgado, nel suo famoso esperimento nella corrida di Cordova, era riuscito a controllare il comportamento animale a distanza tramite biochips11.

Altrove, Miguel Nicolelis ha implementato la prima interfaccia brain-machine, tramite cui una scimmia era grado di controllare un robot mentalmente12. Non solo: è anche riuscito a realizzare la prima interfaccia brain-to-brain, tramite cui due ratti potevano condividere esperienze sensomotorie complesse.

 

Questo articolo è stato originariamente pubblicato su Spindox.it: Per un’etica dell’AI

 

Note

1. Tra cui Stephen Hawking ed Elon Musk.

2. Una discussione interessante sul lavoro di Turing è disponibile su The Alan Turing Internet Scrapbook.

3. Un trucco comune per passare il test per una macchina è quello di rispondere con la stessa domanda, riformulata in altre parole.

4. Dalle loro risposte quelle persone furono scambiate erroneamente per macchine.

5. Ovvero riuscire ad adattarsi a situazioni ambientali complesse.

6. Disponibile qui una delle tante classifiche di droni, per avere un’idea.

7. Usato anche da Facebook per incrociare dati a scopo pubblicitario.

8. Jeopardy! è uno show televisivo americano. Il conduttore presenta ai concorrenti indizi di cultura generale nella forma di risposte, chiedendo di trovare la domanda giusta. Nonostante questo gioco richieda una capacità di contestualizzazione ritenuta prerogativa umana, Watson batte regolarmente campioni umani dal 2010.

9. Associated Press pubblica già migliaia di articoli come questo, generati in modo totalmente automatico tramite Wordsmith di Automated Insight.

10. Denton, E. et al. “Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks“, arXiv:1506.05751v1.

11. J. Delgado (1971) “Physical Control of the Mind — Toward a Psychocivilized Society”

12. P.J. Ifft, S. SHokur, Zheng Li, M.A. Lebedev, M.A.L. Nicolelis (2013) “A Brain-Machine Interface Enables Bimanual Arm Movements in Monkeys”.

Informazioni su Andrea Missinato

Andrea lavora nel campo dell'IT da quasi 20 anni coprendo un po' tutto, da sviluppo a business analysis, alla gestione di progetti. Oggi possiamo dire che è uno gnomo spensierato, appassionato di Neuroscienze, Intelligenza Artificiale e fotografia.
Aggiungi ai preferiti : Permalink.

Rispondi