La guerra dei robot: fantascienza o realtà incombente?

Molti scienziati, filosofi e altre numerose persone di cultura condividono le preoccupazioni per un futuro dominato da robot fuori controllo

Immaginate di accendere il televisore e vedere filmati di un campo di battaglia urbano, dove i robot sono sguinzagliati a caccia di individui inermi. Potrebbe sembrare fantascienza - una scena di Terminator, forse – però è probabile che il futuro prossimo venturo ci riservi questo scenario inquietante e terribile .

 

Se non si interviene presto,  sistemi d'arma autonomi letali, come armi robotiche in grado di individuare, selezionare e colpire obiettivi umani senza intervento degli uomini, non sarebbero più la scena di un film ma diventare una realtà in nessun modo negoziabile, perchè gli automi dotati di intellgenza artificiale prenderebbero il sopravvento e sicuramente costruirebbero altri robot sempre più aggiornati e letali.


Questa evoluzione segue infatti la stessa legge che governa il software dei computer il quale, se non viene migliorato continuamente, diventa presto obsoleto e va inesorabilmente a morire. I robot evoluti infatti obbediranno alle stesse modalità di sopravvivenza - anche se in modo originale, evidentemente - di chi li ha creati : l' uomo.

 

Nel mese di luglio 2015, oltre 3.000 scienziati nel campo dell'intelligenza artificiale e della robotica di ricerca - tra cui molti membri del Consiglio Globale Agenda del Forum sulla Intelligenza Artificiale e Robotica – hanno firmato una lettera aperta chiedendo un trattato per bandire le armi autonome letali. A questi scienziati si sono aggiunti altri 17.000 firmatari in campi diversi come la fisica, la filosofia ed il diritto, tra cui Stephen Hawking, Elon Musk, Steve Wozniak e Noam Chomsky.

 

Molti sono a conoscenza, in varia misura, delle tre realizzazioni più impressionanti della robotica moderna :

 

1. La vettura a guida autonoma: le si ordina dove andare ed essa sceglie un percorso facendo tutto da sola, come "vedere" la strada attraverso il suo monitor a bordo, ed evitare ostacoli graduando la velocità.

 

2. software di scacchi: si ordina solo di vincere ed il robot sceglie dove spostare i suoi pezzi e quali sono i pezzi avversari da catturare.

 

3. Il drone armato: vola in remoto per mezzo di un dispositivo video intelligente, sceglie il bersaglio, arma e avvia il missile.

 

Un'arma letale autonoma potrebbe combinare elementi di tutte e tre le realizzazioni robotiche, diventando ancora più incontrollabile.

 

Nel Regno Unito - uno degli almeno sei Stati che sono già autosufficienti per la ricerca, lo sviluppo e la sperimentazione di armi completamente autonome - il Ministero della Difesa ha detto che tali armi sono già ora realizzabili in alcuni scenari aerei e navali. Due programmi dalla Defense Advanced Research Agenzia statunitense (DARPA) già forniscono indizi su come le armi autonome potrebbero essere utilizzate in ambienti urbani.

 

Il programma Light Fast Autonomy vedrà la manovra di piccoli elicotteri senza aiuto umano e ad alta velocità nelle aree urbane e all'interno di edifici. In un comunicato stampa che descrive il programma DARPA, questa azione offensiva è paragonata a "lupi coordinati in branco per la caccia".

 

Non c'è alcun dubbio che la tecnologia migliori di anno in anno, se non di mese in mese, e che le armi autonome saranno altamente efficaci. Ma questo necessariamente significa che sono una buona idea?

Vi sono buoni motivi per pensare di no, e le ragioni che hanno spinto gli scienziati e uomini di cultura a emettere il documento sono essenzialmente le seguenti:

 

Robotica fuorilegge

 

Potremmo pensare alla guerra robotica come ad una serie di atti responsabili e che i robot compartecipano con lo stato di diritto della generalità delle nazioni, ma ciò non è così: tale guerra viene fatta in realtà per avere i propri codici di condotta legalmente riconosciuti in un nuovo sistema di leggi robotiche ( Isaac Asimov docet con le sue tre leggi della robotica*).


Molti esperti del settore, tra cui Human Rights Watch, il Comitato Internazionale della Croce Rossa e delle Nazioni Unite, attraverso il relatore speciale Christof Heyns, si sono chiesti se le armi autonome possano rispettare le convenzioni internazionali come quella di Ginevra. Il rispetto richiede giudizi soggettivi e situazionali che sono molto più difficili dei relativamente semplici compiti per localizzare e uccidere e che, con l'attuale stato di intelligenza artificiale, sarebbero probabilmente al di là della responsabilità di un robot.

 

Anche i Paesi in via di sviluppo riconoscono queste limitazioni. Nel 2012 il Dipartimento della Difesa statunitense ha emesso una direttiva che indica che tali armi devono essere progettate in modo da consentire agli operatori sul teatro di guerra di "esercitare adeguati livelli di giudizio umano sopra l'uso della forza". La direttiva vieta espressamente la scelta autonoma di bersagli umani, anche in contesti difensivi.


(*)  Ndr : il famoso scrittore di FS Isaac Asimov e scienzato di fama che scrisse numerosi testi scientifici nonchè previsionali sul futuro della civiltà tecnologizzata, si cimentò con il problema dei robot nei confronti dell' uomo, dei suoi valori e delle sue leggi morali. In realtà egli formulò le tre leggi della robotica come se non vi fosse autonomia nei robot, e come se essi avessero una sorta di coscienza simile a quella dell' uomo. Oggi, con le armi autonome di moderna realizzazione, le leggi della robotica di Asimov appaiono superate e non applicabii a questo tipo di robot cosiddetto " autonomo ".

 

Salvataggio da parte di guerrieri robot?

 

Alcuni esperti di robotica, come Ron Arkin, credono che i sistemi d'arma autonomi letali potrebbero ridurre il numero delle vittime di guerra civili. L'argomento si basa sul presupposto implicito che “ ceteris paribus” : dopo l'avvento delle armi autonome, le specifiche opportunità di sterminio - numeri, orari, luoghi, eventi, circostanze, vittime - saranno esattamente le stesse che si sarebbero verificate con i soldati umani.

 

Ovviamente, le armi autonome sono completamente diverse dai soldati umani e sarebbero utilizzate in modi e contesti generalmente diversi da quelli umani, come per quanto riguarda le armi di distruzione di massa.

Inoltre, sembra improbabile che i robot militari saranno soggetti sempre ad un "ambiente umanitario" al 100%. Non si può sempre sostenere che i soldati ben addestrati delle nazioni civilizzate sono istintivamente deboli nel seguire le regole di una guerra con conseguenze distruttive, spesso totali, e che i robot possono fare meglio di loro.

 

Mentre è fuorviante, allo stesso tempo, sostenere che le nazioni canaglia, dittatori e gruppi terroristici sono molto più bravi a seguire le regole di siffatta guerra, e che non utilizzeranno i robot in modi per loro inutili. L' intervento distruttivo da parte di un terrorista islamista è altamente imprevedibile e basato sulla sorpresa: è un onore farsi esplodere sugli obiettivi prefissati, e merita il "suo" paradiso. Inviare alla distruzione un robot pieno di esplosivo non lo è per i mandatari delle stragi.

 

Al di là di questi aspetti tecnologici di conformità, ci sono questioni morali fondamentali. La clausola di Martens delle Convenzioni di Ginevra - una serie di trattati che forniscono il quadro di legge dei conflitti armati - dichiara che   "La persona umana rimane sotto la protezione dei principi di umanità e dei dettami della coscienza pubblica." E' un sentimento che ha fatto presa su Paesi come la Germania, che ha annunciato che "non accetterà che la decisione sulla vita e sulla morte sia presa solo da un sistema autonomo".

 

 

Robot di distruzione di massa

 

L'impatto strategico primario delle armi autonome non sta tanto nella superiorità in combattimento rispetto ai sistemi con equipaggio e soldati umani, ma nella loro scalabilità. Un sistema è scalabile se si può aumentare il suo impatto solo avendo a disposizione un potenziale molto grande; per esempio, la scalabilità delle bombe nucleari da tonnellate di kiloton a megatoni costituisce un impatto decisamente superiore alla potenzialità statica o non progressiva.

 

Sono chiamiate armi di distruzione di massa per una buona ragione : ad esempio i Kalashnikov non sono scalabili negli stessi termini di un' arma costruita per uccidere in massa. Un milione di kalashnikov può uccidere un sacco di gente, ma solo se ciò è effettuato da un milione di soldati, che hanno bisogno di un enorme complesso militare-industriale per sostenerli, essenzialmente un intero Stato-nazione.

 

Un milione di armi autonome, d'altro canto, ha bisogno di poche persone per acquisire e programmare le azioni, sono costituite da piloti non umani, senza personale di supporto, senza corpo medico. Tali dispositivi formeranno una nuova classe scalabile di armi di distruzione di massa con proprietà simili a quelle destabilizzanti delle armi biologiche: si aggira cioè l'equilibrio di potere degli Stati legittimi e lo si sposta a favore di terroristi, organizzazioni criminali, nonché altri attori non statali. Infine, i robot sono particolarmente adatti alla repressione, essendo immuni da corruzione o suppliche di pietà.

 

Le armi autonome, a differenza delle armi convenzionali, potrebbero anche portare all' instabilità strategica. Armi autonome in conflitto con altre armi autonome devono adattare il loro comportamento velocemente, altrimenti la loro prevedibilità porta alla sconfitta. Questa adattabilità è necessaria ma rende le armi autonome intrinsecamente imprevedibili e quindi difficili da controllare. Inoltre, l'equilibrio strategico tra i Paesi dotati di robot armati può cambiare in un breve volger di tempo grazie ad aggiornamenti software o alla violazione della sicurezza informatica. Infine è molto sentita, da quasi tutti gli analisti militari, la preoccupazione della possibilità di una guerra accidentale, definita dagli specialisti "flash crash".

 

 

Cosa succederà adesso ?

 

Le Nazioni Unite hanno già tenuto diversi incontri a Ginevra per discutere la possibilità di un trattato che disciplini le armi autonome.

Definire ed approvare i dettagli di un trattato sarà una bella sfida, anche se non impossibile. Forse più complicati sono i temi della verifica dei trattati e la definizione delle tecnologie a duplice uso, pacifico e militare. L'esperienza con le Convenzioni sulle armi biologiche e chimiche suggerisce che la trasparenza e la cooperazione industriale saranno cruciali per raggiungere un accordo tra le nazioni.

 

Il ritmo dei progressi tecnologici in materia di autonomia sembra essere un po' più veloce rispetto al tipico processo di creazione di trattati di controllo degli armamenti, alcuni dei quali sono stati per molti decenni in fase di sviluppo. Il processo al momento è in equilibrio sul filo del rasoio: mentre molte nazioni hanno espresso forti riserve sulle armi autonome, altre premono in avanti continuando con la ricerca e sviluppo. Le discussioni internazionali nel corso dei prossimi 12 o 18 mesi saranno cruciali, come evidenzia il documento firmato da migliaia di persone aventi notevoli responsabilità nella comunità scientifica, nella giurisprudenza, e nel campo sociale.

Stampa solo il testo dell'articolo Stampa l'articolo con le immagini

Articolo pubblicato il 24/01/2016