OggiParliamoDi.it

Etica delle macchine e responsabilità umana

 

Questo articolo è un gentile contributo al blog da parte di Alessandro Burgognoni.

L’etica è oggetto di studio e dibattito da sempre nella dimensione umana, ma oggi l’attenzione è rivolta anche ai sistemi intelligenti messi a disposizione dalla moderna tecnologia ormai in grado di agire autonomamente, in maniera sofisticata, capaci di formulare soluzioni e attuare azioni conseguenti e di esprimere “giudizi” anche in ambiti critici della vita reale.

In ambito umano, in un articolo del 2014 – “Etica e responsabilità nell’era del post umano” – il prof. Giuseppe Longo (informatico, cibernetico, teorico dell'informazione, epistemologo, divulgatore scientifico, scrittore…fa impressione la quantità di competenze) concludeva così: “…In conclusione, per migliorarsi rispetto al proprio stato attuale, dando al contempo il meglio di sé, l’essere umano dovrebbe essere disposto a ri-creare sé stesso sulla base della libera relazione con gli altri, del dono e della gratuità reciproca. Ma prima ancora dovrebbe condurre una seria critica della scienza, della tecnologia e delle politiche economiche, sanitarie, demografiche e di sviluppo.

E ancor prima dovrebbe riacquistare il senso della responsabilità del proprio agire: ma questo recupero è arduo, poiché la responsabilità individuale si smarrisce nei mille rivoli della responsabilità collettiva, che non coinvolge nessuno e che è sottoposta a inesorabili condizionamenti economici e sociali, e al procedere quasi automatico e certo non democratico della tecnologia.

Questa responsabilità collettiva, lontana e diluita, ancor più indebolita dalla globalizzazione, è così rassicurante da farci dimenticare che una parte di quella responsabilità ricade su ciascuno di noi: ma chi ha la forza, il coraggio e la lucidità di farsene carico?”.

La responsabilità come sostiene il prof. Longo ricade su ognuno di noi e sulla nostra capacità di guardare oltre il nostro piccolo e definito mondo del quotidiano.

Lo spostamento dell’attenzione nella direzione della promozione di se stessi, in un mondo estremamente competitivo, allontana il senso di responsabilità verso il mondo sostituendolo con azioni atte a promuovere la propria immagine, al fine di essere integrati o comunque non essere o sentirsi esclusi dalla realtà “vincente”, mentre questa autopromozione e la sua amplificazione si scontrano con un’altra visione del mondo che – come sostiene Longo – porterebbe l’essere umano “…a ricreare sé stesso sulla base della libera relazione con gli altri, del dono e della gratuità reciproca.” a dispetto di una responsabilità collettiva che sembra coinvolgere tutti e nessuno.

Le decisioni e le responsabilità che ne derivano dovrebbero essere dettate da criteri oggettivi, ma alla fine la realtà è ben diversa dalla teoria e questo nell’ambito umano è noto da tempo, molti hanno effettuato un’analisi approfondita dell’errore umano e dei metodi per evitarlo o più spesso di come ridurre i danni di una errata decisione in un contesto operativo.

Le decisioni all’interno di un ambito specifico risentono di varie condizioni legate alle situazioni di stress, all’esperienza, all’appartenenza ad un gruppo sociale, alla cultura, allo stato d’animo a errate interpretazioni di fatti, situazioni e fenomeni della realtà che si vive e si osserva.

Di riferimento l’esperimento proposto a un gruppo di giudici: valutare la pena per un ipotetico reato avendo a disposizione la documentazione relativa al caso; le sentenze risultanti furono molto difformi a volte del tutto opposte in termini di carico della pena.

Tutto questo riguarda noi ma si riflette sui derivati della nostra intelligenza, sulle macchine che al nostro posto devono compiere azioni e prendere decisioni nel mondo reale.

Il filosofo Hans Jonas suggerisce di andare alle radici filosofiche del problema della responsabilità, che non coinvolge unicamente i temi e le scelte necessarie alla sopravvivenza della specie umana, ma tutti i temi legati al vivere quotidiano e alle diverse modalità che sussistono nella esistenza della stessa, Jonas ci fa riflettere sulla necessità della consapevolezza del nostro presente in prospettiva del nostro futuro, responsabilità che investe ogni uomo con particolare rilevanza per chi svolge un ruolo decisionale nell’ambito dell’interesse comune, in prospettiva di un lascito a chi verrà dopo noi in termini di possibilità e qualità dell’esistenza.

Sulle linee di questa visione della responsabilità e della connessa etica umana si rivela attuale il tema dell’etica delle macchine “intelligenti”, macchine sempre più indipendenti e governate da algoritmi sempre più efficaci ma, pur sempre algoritmi, chi ne governa le regole di attuazione? chi decide se la loro efficacia e operatività sia consona “all’umano”? Ha dunque senso interrogarsi sulla “machine ethics”, materia in auge da tempo, da quando i computer hanno iniziato ad essere non solo elaboratori/manipolatori di simboli ma attuatori, attraverso le loro interfacce verso il mondo, di azioni concrete.

Un articolo del filosofo italiano Luciano Floridi – attento studioso del tema – analizza il rapporto tra agenti e pazienti – (N.d.R. – da Wikipedia – Agente: entità che compie volontariamente un’azione, ed è quindi intenzionalmente parte attiva dell’evento. Paziente: entità coinvolta passivamente nell’evento attivato da un agente (ne subisce le conseguenze oppure si trova in una determinata condizione) – nei termini di come le teorie etiche (macro etica) studiano il rapporto – la relazione logica – tra chi agisce e chi riceve un atto, tra l’altro ha dedicato un testo apposito per esprimere il suo punto di vista sull’etica dell’intelligenza artificiale.

Floridi introduce il concetto di separazione tra intelligenza e azione, le macchine agiscono in maniera apparentemente intelligente ma emulano comportamenti umani senza averne la coscienza,  se l’obiettivo è ottenere una azione di senso compiuto la macchina la eseguirà secondo le direttive imposte o dichiarate o quelle ricavate dalle conclusioni che la piramide algoritmica che la controlla sarà capace di generare – in sostanza, oggi, abbiamo separato la capacità di agire dall’intelligenza il che, genera problemi etici a vari livelli.

Esistono oggi fautori di una algoritmica capace di andare oltre l’analisi evoluta dei dati, l’analisi predittiva e l’estrazione di conoscenza tacita, tra questi Pedro Domingos, nel suo libro “l’Algoritmo Definitivo” l’autore – docente all’università di Washington – auspica la creazione di un algoritmo evoluto che sia la sintesi delle logiche/metodiche esistenti nell’ambito della algoritmica, capace di “affrontare” ogni sorta di problema in modo simile all’approccio umano ma con maggiore efficienza, un sistema di apprendimento capace di “inferire” dalla conoscenza tacita per fornire risposte e soluzioni nascoste nel nuovo petrolio del mondo – i dati – attingendo a tutti gli strumenti che i vari approcci mettono a disposizione, facendoli lavorare per mettere a disposizione l’uno dell’altro quello che sanno cogliere dai dati o dalla loro manipolazione o classificazione.

Nella tabella successiva sono presentate le cinque aree di studio che dovrebbero convergere nel “super-algoritmo”:

Domingos ha in prima istanza un approccio apparentemente equilibrato rispetto a quello che porterebbe a cedere alle macchine il controllo algoritmico totale dei processi, vedi la seguente dichiarazione rilasciata in una intervista: “…But it’s not so much that machine learning will be superior to our brain, but that our brain extended with machine learning will be superior to our brain without it” – Pedro Domingos intervistato nel 2015 da Gregory Piatetsky “…Ma non è tanto che l’apprendimento automatico sarà superiore al nostro cervello, ma che il nostro cervello esteso con l’apprendimento automatico sarà superiore al nostro cervello senza di esso.”

In sostanza sistemi intelligenti che siano complementari alle nostre capacità, collaboratori e scrutatori dell’infinito di conoscenza presente nei dati e nella loro manipolazione ma non
soggetti artificiali a cui delegare in toto il destino delle nostre vite.

D’altro canto in un articolo del 2015 Domingos si proiettava oltre la sua precedente ipotesi proponendo un futuro dove diventi reale una “entità digitale”, un agente che ci rappresenti nel
quotidiano, operando per noi e meglio di noi nelle azioni quotidiane, interagendo con altri simili digitali che rappresenteranno persone, aziende, enti, soggetti attivi in un modo digitalizzato,
trattando e selezionando per noi oggetti assicurazioni, contratti, conti bancari, servizi etc.

Un agente che ci rappresenterà perché costruito sulle nostre abitudini, sui nostri dati, sul nostro
vivere digitale e sulle azioni e scelte che nel tempo abbiamo operato, un alter ego digitale una sorta di avatar funzionale cosi efficiente da sostenerci e sostituirci quando sia necessario in un
mondo digitale diventato troppo veloce per noi e forse anche per certi versi incomprensibile.

Dare un senso alle nostre ricerche, non essere abbagliati dalla corsa alle applicazioni che si possono introdurre senza chiedersi le conseguenze di ciò che costruiamo, è questo il percorso difficile da sostenere in un regime di concorrenza dove l’AI è ormai in una autostrada a molteplici corsie senza limiti di velocità, dove giorno per giorno arrivano nuove soluzioni e applicazioni.

Qualcuno sostiene che le aspettative siano eccessive rispetto alla realtà e che il marketing dell’AI ci porterà in una nuova bolla come successo in passato. In realtà a mio parere se le aspettative sono esagerate, vedi il filone di chi studia la possibilità di “macchine coscienti” o di sistemi dotati di AGI (Artificial General Intelligence – ipotizza l’abilità di un agente intelligente di comprendere e imparare ogni attività intellettuale che è propria di un essere umano), la situazione tecnologica è molto diversa dal passato e gli strumenti di base su cui costruire realtà tecnologiche dal “comportamento” intelligente oggi sono assolutamente presenti ed evidenti nelle realizzazioni.

I saggi di oggi sostengono infatti che il problema non è tanto quello che possono fare i sistemi intelligenti ma quello che noi vogliamo fargli fare – tra questi Margaret Boden – e sono due orientamenti molto diversi.

La strada è aperta da tempo e ora abbiamo gli strumenti per percorrerla lo facciamo ad alta velocità, fieri dei nostri mezzi e della nostra intelligenza ma questo non basta per essere
predittivi del nostro futuro e delle conseguenze delle nostre azioni di oggi sulle condizioni del domani.

Sul tema della possibile costruzione di una macchina cosciente è illuminante la posizione di Federico Faggin – inventore presso la Intel del primo microprocessore il “4004” – che ha percorso
parallelamente alle sue molteplici creazioni tecnologiche un viaggio straordinario nella innovazione dell’approccio allo studio della coscienza – concludendo ad oggi che nessuna macchina può essere cosciente – dal suo sito personale un estratto dallo scritto “Che cos’è la consapevolezza?

“…La coscienza ci permette di fare molto di più di agire ciecamente con una risposta automatica ai segnali sensoriali, che è tutto quello che una macchina può fare. Sentendo l’odore, vedendo
l’immagine e toccando i petali del gelsomino, ci connettiamo con quel fiore in un modo speciale.
Noi “sperimentiamo” il gelsomino. Questa esperienza vissuta va ben oltre il riconoscimento meccanico di un oggetto. Una macchina invece non può connettersi a nulla perché è solo un web di
azioni-reazioni cieche.

A questo punto la coscienza potrebbe essere definita semplicemente come la capacità di sentire. Ma il sentimento implica l’esistenza di un soggetto che sente, un osservatore, un sé. Pertanto, la
coscienza è inestricabilmente legata a un sé. Sé e coscienza sono inseparabili.

Potremmo allora dire che la coscienza è la capacità intrinseca di un sé di percepire e conoscere attraverso un’esperienza senziente. Ma c’è anche di più perché la coscienza può anche rivolgersi
verso il sé permettendogli di conoscere sé stesso in aggiunta al mondo esterno.”

Da quanto sopra citato consegue che, se nessuna macchina è cosciente perché non è dotata di un “Sé”, se dietro ad ogni macchina funzionante c’è un uomo e le sue capacità di darle regole e logica di funzionamento, allora il problema dell’etica dei sistemi intelligenti si sposta su noi esseri umani e sulla nostra voglia di automatizzare il mondo che ci circonda ad un livello tale da delegare responsabilità di azioni e giudizi ad una catena di algoritmi sofisticati ma incoscienti.

Nel settore dei pionieri di una interazione evoluta uomo macchina troviamo Weizenbaum il padre di “Eliza” il primo “chatbot” della storia, tra l’altro così convincente che alcuni pensarono fosse un vero terapeuta di scuola rogersiana del quale, nell’ipotesi di progetto, doveva rappresentare nel colloquio l’approccio orientato al paziente, proprio della scuola di pensiero. L’autore cercherà nel tempo di spiegare che quel apparente comportamento intelligente non ha dietro una intelligenza ma una logica di programmazione che la emula.

Nacque così “l’effetto Eliza” quella condizione per la quale si tende ad antropofizzare una macchina e le sue espressioni durante l’interazione con essa.

In sintesi, all’elaboratore elettronico e al programma che è in esecuzione vengono riconosciuti comportamenti equivalenti ai comportamenti umani che fanno suppore al
soggetto interagente che l’interlocutore sia dotata di un’elevata intelligenza.)

Ponendo l’attenzione sulla “qualità” della conoscenza ci accorgiamo di come – argomento attualissimo – i bias cognitivi, i pregiudizi, gli orientamenti personali, le opinioni siano
disseminate nei trilioni di dati che ogni giorno produciamo con le nostre azioni – chi fornisce i dati ad un sistema può selezionare i dati in funzione di proprie convinzioni – già esistono casi di
valutazioni “automatiche” dei curriculum che hanno dato luogo a valutazioni razziste in fase di selezione del personale.

Le contromisure attuabili si trovano nel nuovo settore dell’Algorithmic fairness, campo di ricerca in veloce crescita che mira a ridurre gli effetti discriminatori, specie quando gli algoritmi sono
impiegati nell’ambito della valutazione umana nelle varie forme dell’apprendimento automatico.

L’area di ricerca è fortemente interdisciplinare e si pone l’obiettivo di analizzare e migliorare i modelli di apprendimento al fine di ottenere proiezioni o previsioni equilibrate che rientrino il più
possibile in un ambito di equità e giustizia. Il problema è che non esiste una definizione esaustiva e universale di correttezza o equità (fairness)) – Sia Google (indicatori di equità) e IBM (riduzione del Bias) sono impegnate fortemente in questo settore.)

In conclusione di questo articolo, con il quale ho sorvolato solo su alcuni macro aspetti del tema e ho cercato di delineare in estrema sintesi la tematica dell’etica delle macchine “intelligenti”,
possiamo dire che: le macchine dotate di possibilità di giudizio e azione conseguente, di analisi dei dati e di estrazione di conoscenza da enormi volumi di dati sono intorno a noi, ma in fondo riflettono ciò che siamo o ciò che desideriamo, ma potrebbero per la loro complessità andare oltre le nostre aspettative e i nostri desideri e agire o effettuare scelte umanamente non accettabili solo in funzione della logica algoritmica e dei dati messi a disposizione.

Già oggi abbiamo processi basati sul deep learning che danno soluzioni coerenti di cui non conosciamo il percorso risolutivo, perché racchiuso nelle profondità della rete stessa, questo dovrebbe darci il segno della prudenza di cui abbiamo bisogno per ottenere ciò che vogliamo e spingerci a costruire sistemi di monitoraggio degli strati intermedi
delle reti risolutive per comprenderne a fondo le logiche sottese.

Nelle pagine finali del suo libro “L’Algoritmo Definitivo”, precedentemente citato, Pedro Domingos chiude le sue considerazioni avvenieristiche con una sintesi di sostanza:“Ci preoccupiamo che i computer possano diventare troppo intelligenti e si impadroniscano del mondo, ma il problema reale è che sono troppo stupidi e il mondo è già nelle loro mani”.

Infine – una condivisibile considerazione filosofica che emerge da alcuni commenti e opinioni in rete – nella situazione attuale priva di valori di riferimento stabili dovremmo cercare di capire se la nostra ancestrale necessità, spesso nascosta, di trovare un riferimento assoluto, non ci stia portando verso il miraggio della costruzione di un nuovo algoritmo dalle ipotetiche “onniscienti” capacità, per ridare senso all’esistenza attraverso un “assoluto digitale”, qualcuno a cui delegare responsabilità, potere e decisioni, con il rischio che chi ne ha i mezzi si appropri di questo
meccanismo e ne faccia uso per fini discutibili o oppressivi.

Cosa vuoi trovare?