Chiediamo alle macchine di agire al nostro posto. E di decidere per noi. A volte con conseguenze catastrofiche. Come nel caso dei Boeing 737 precipitati di recente.
“Apri il portello della capsula, Hal!”,
“Vuoi aprire il portello, Hal?”
Sono gli inviti, anzi gli ordini, che l’astronauta Dave Bowman rivolge, inutilmente, al computer HAL 9000, che disubbidisce e decide di lasciarlo morire fuori dall’astronave Discovery, pur di rispettare l’obbiettivo assegnatogli di proteggere la missione.
Hal, che è una macchina anche se sembra umano, è irremovibile perché, come ogni macchina, ragiona con un algoritmo che con certi input fornisce certi output e in 2001: Odissea nello spazio il computer, con i dati disponibili, ritiene che Dave sia diventato pericoloso per l’esito della missione e lo lascia fuori a morire.
Sappiamo che non finisce lì: Dave rientra in modo rocambolesco e, leggermente contrariato, smonta la memoria centrale di Hal e si riprende il controllo. Il computer regredisce allo stato “infantile” (canticchia un girotondo) e smette di interferire con la gestione dell’astronave. L’uomo si riprende il posto di decisore ultimo.
Era solo un film, un meraviglioso film di oltre 50 anni fa, ma sotto sotto sapevamo che prima o poi sarebbe successo per davvero.
Ed è successo, almeno un paio di volte, e senza il lieto fine, purtroppo. Il computer di due Boeing 737 Max ha deciso che l’aereo doveva scendere e lo ha fatto scendere, malgrado i Dave Bowman in cabina cercassero di escluderlo. L’ha spuntata lui, uccidendo qualche centinaio di persone.
Non è stato un guasto meccanico, ma un guasto nel processo decisionale della macchina che dovrebbe aiutare i piloti a governare l’aereo e che invece evidentemente si è presa troppo potere.
Succederà ancora, stiamone certi, perché nessuna tecnologia può essere totalmente esente da errore. E dobbiamo abituarci all’idea che i guasti non sono solo roba che si rompe ma anche macchine che decidono male, mettendosi in aperto contrasto con chi le dovrebbe governare.
Il problema del Boeing 737 verrà risolto certamente; verrà elaborata una procedura che permetta ai piloti di non essere esclusi, ma finirà lì?
Io non lo credo, semplicemente perché noi oggi abbiamo la possibilità di chiedere alle macchine molte più cose di quelle che potremmo fare da soli, chiediamo loro di pensare e reagire al nostro posto, attuando comandi con tempi e sequenze che noi non potremmo mai permetterci, e quelle decideranno al posto nostro, secondo quanto il loro algoritmo gli dice essere congruente con il fine della missione.
E se qualcosa andrà storto, sorgerà di nuovo il conflitto e non basterà “staccare la spina” o premere “ESC”. Probabilmente vincerà ancora la macchina e noi saremo qui a chiederci se è giusto o no.
Domanda sbagliata: il concetto di giusto è solo umano e non è applicabile alle macchine né possiamo pretendere che lo apprendano. Dobbiamo accontentarci di una riduzione del concetto a formule matematiche e sequenze logiche. E sperare di essere capaci di far sì che le probabilità di conflitto siano minimizzate. Probabilità, non certezze.
Perché è vero che è sempre l’essere umano che progetta il prodotto, ma quando al prodotto si conferisce una sua capacità di decisione, si deve ammettere che essa possa essere, in qualche caso remoto, conflittuale e sfavorevole all’uomo.
La macchina esegue calcoli ed istruzioni, sulla base di input produce degli output. Siamo noi che non dobbiamo mai illuderci di avere delegato delle responsabilità, siamo noi che non dobbiamo mai smettere di perseguire l’ottimo, mai accontentarci, tenere sempre alta l’asticella, soprattutto quando il possibile antagonista è una macchina che non sbaglia ma esegue, implacabilmente.
Insomma, Dave Bowman deve sempre avere una porta d’ingresso e la responsabilità di adoperarla.
Isaac Asimov, ben oltre mezzo secolo fa, aveva formulato le tre leggi della robotica:
-un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
-un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
-un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Il computer dei due Boeing 737 ha contravvenuto a tutte e tre le leggi, il risultato è stato catastrofico, ma spetta a noi rimediare.
Stephen Hawking negli ultimi suoi anni ammoniva a prestare molta attenzione alla cosiddetta intelligenza artificiale, ritenendo che essa potesse arrivare a costituire un pericolo per le attività umane.
È un altro settore (come la Rete internet) che dobbiamo con urgenza imparare a gestire, a regolamentare, senza lasciarci trascinare da facili entusiasmi o golosi interessi di breve termine.
Di nuovo è la politica che deve guidare il processo, una politica che stia ben più in alto delle singole, piccole realtà nazionali.
Commenta per primo