L’Intelligenza Artificiale determinerà la fine della responsabilità personale?
L’AI (Intelligenza Artificiale) era una volta solo roba da fantascienza e da ricerca teorica, poi all’improvviso ha iniziato a lavorare tranquillamente nel dietro le quinte dei servizi online. Ora vediamo i primi stadi dell'AI diffondersi su tutto il mercato. Adesso che la gestione della nostra vita quotidiana è affidata sempre più agli algoritmi, che posizione assumerà la vecchia idea di responsabilità personale?
L'effetto della tecnologia sulla cultura e sulla società può essere subdolo. Quando viene presentato un nuovo dispositivo o un servizio che semplifica le cose, siamo pronti ad accoglierlo e ad utilizzarlo senza pensare alle potenziali conseguenze che emergono negli anni successivi.
La privacy è stata la prima vittima
Prendiamo la privacy, per esempio. Quando Facebook è stato scosso dallo scandalo di Cambridge Analytica, la cosa ha dominato le testate animando interi giornali ma in mezzo a tutto l'oltraggio, quello che mi ha colpito di più è che, al di fuori dei media e degli appassionati di tecnologia, la reazione più comune è stata l'indifferenza.
Ma perché la gente ha scrollato le spalle e ha detto: "e allora?" per un tale furto di informazioni personali al fine di usarle in squallida pubblicità e per manipolare i risultati di elezioni importanti?
Forse perché i processi tecnici alla base di tutto ciò sono troppo complessi e la maggior parte delle persone non ha un'idea chiara di come e cosa sia successo. Le licenze d’utente per tutti i diversi servizi che una persona può utilizzare sono essi stessi densi e opachi e di solito non abbiamo il tempo di leggerli, per non parlare di capirli tutti alla perfezione. Uno studio ha dimostrato che per poter leggere tutte le politiche sulla privacy che si incontrano, occorrerebbe un mese di ferie dal lavoro all'anno.
Eppure molti di noi hanno acconsentito comunque a questo accordo infausto e hanno rinunciato alla propria privacy perché Facebook o i servizi di Google (tra gli altri) sono troppo favolosi per non usarli. Inoltre tutti gli amici (o i concorrenti, in un contesto commerciale) li utilizzano: chi vuole restare indietro?
Come si è arrivati fino a questo punto è ancora in fase di studio ma resta il fatto che la privacy personale nel 2018 non è più quella di una volta. Le aspettative sono diverse e molti di noi sono assolutamente favorevoli a cedere le proprie informazioni personali a delle aziende fino ad un tale livello di intimità che sarebbe stato impensabile per le generazioni precedenti. È il prezzo che si deve pagare per entrare nel mondo della tecnologia e la maggior parte di noi è felice di farlo.
Potete provare a consigliare di utilizzare VPN e chattare su Signal, ma per la maggior parte il cambiamento culturale è già avvenuto: proteggere la privacy non è una preoccupazione dominante. Non abbastanza, comunque, per spingere la maggior parte delle persone a fare materialmente qualcosa.
Grazie all’AI la prossima sarà la responsabilità personale
Le storie horror riguardo l’AI di solito evocano l’idea che questa diventi consapevole e in qualche modo si rivolga contro l'umanità. Ma un'angoscia più realistica è che l’'intelligenza della macchina non riguardi tutti. Come ogni strumento serve a rendere un compito più facile, rapido ed efficiente. Ma più lo strumento viene guidato da una mano umana, più diventa confusa la questione sulla responsabilità personale.
La privacy è una cosa, ma la responsabilità diventa un argomento serio e può essere letteralmente una questione di vita o di morte. Quando qualcosa gestito dall'intelligenza artificiale va storto e provoca danni, di chi è la responsabilità? Degli ingegneri del software, anche se la macchina ha "imparato" indipendentemente da loro? Della persona che ha premuto il pulsante "on"? Dell'utente che ha firmato l’ormai onnipresente ‘papiello’ in legalese senza leggerlo per ottenere un accesso rapido al servizio?
Le auto a guida autonoma sono la prima linea in questo dilemma etico. Ad esempio, ad un veicolo automatico sviluppato da Nvidia viene insegnato come guidare grazie ad un sistema di deep learning, utilizzando i dati di addestramento raccolti da un conducente umano. E, a dirla tutta, la tecnologia è incredibile. Riesce a tenere la corsia, a girare, a riconoscere i segnali e così via.
Tutto bene, a patto che faccia quello che dovrebbe. Ma cosa succede se una macchina autonoma decide improvvisamente di andare contro un muro o guidare in un lago? Cosa succede se sterza per evitare di schiantarsi su un pedone, ma finisce per uccidere il suo passeggero? L’auto andrà a finire in tribunale?
Per come stanno le cose ora, potrebbe essere impossibile scoprire perché o come questo tipo di incidenti accadano visto che l'AI non può spiegarci le sue scelte e anche gli ingegneri che hanno creato il programma non sono in grado di seguire il processo che sta dietro ogni decisione specifica .
Tuttavia ci sarà bisogno di accertare delle responsabilità ad un certo punto. Può anche essere che questo problema tenga le auto a guida autonoma fuori dal mercato, almeno finché non viene risolto. Oppure che la tecnologia diventi troppo eccitante, conveniente e redditizia, da venire subito messa sul mercato e solo dopo si cercherà di risolvere le questioni difficili.
Immaginare l'AI coinvolta in un incidente automobilistico è un esempio estremo, ma saranno tante le aree della nostra vita in cui saremo tentati di dare la responsabilità alla macchina. All'AI verrà data la possibilità di diagnosticare le malattie e "decidere" chi vive o muore, di fare chiamate commerciali da milioni di dollari e fare scelte tattiche nelle zone di guerra. Ci sono già stati problemi del genere, come persone con l'asma classificate erroneamente come a basso rischio da un'IA progettata per prevenire la polmonite.
Via via che l'intelligenza artificiale evolve probabilmente prenderà decisioni sempre migliori... il 99,9% delle volte. Nel restante 0,01% forse ci limiteremo a scrollare le spalle come è successo con lo scandalo sulla privacy di Facebook.
Gli assistenti smart e le app si assumeranno maggiori responsabilità
Diamo un’occhiata più da vicino, all'individuo. Alla Google I/O il colosso di Mountain View ha mostrato alcuni modi in cui l'intelligenza artificiale può semplificare la vita. Gli assistenti virtuali sono diventati mainstream, soprattutto nell'ultimo anno o giù di lì, e ora sono parte integrante di molte case.
La demo di Google Duplex ha mostrato come Assistant possa delegare appuntamenti e prenotazioni, telefonare per prenotare un taglio di capelli o riservare un tavolo in un ristorante. Google vuole anche utilizzare Duplex per i call center automatizzati, il che evoca la scena divertente di due robot che conversano con il linguaggio umano.
Bello, vero? Tranne che, beh, bisogna dare all’assistente virtuale un certo livello di fiducia quando lo si utilizza così. La comunicazione a questi livelli può sembrare semplice, ma in realtà è piena di potenziali problemi.
Ad esempio, quando parliamo fra noi, oltre alle parole, teniamo conto anche di sottili inflessioni nella voce e segnali negli atteggiamenti al fine di ottenere un'impressione più precisa sulla persona con cui stiamo parlando e agire in modo appropriato. E già così probabilmente sapete benissimo quanto facile sia offendere mortalmente qualcuno per sbaglio e provocare una discussione o un oltraggio.
Di chi è la responsabilità quando un assistente virtuale dice qualcosa e questo viene percepito come offensivo o imbarazzante? Se agli assistenti virtuali viene in qualche modo impedito di dire qualcosa di potenzialmente offensivo, anche ironicamente o scherzando o una critica, è la "vostra" voce ad essere censurata? Ci vorrà molto più di 'ehm' e 'ah' prima che l'intelligenza artificiale sia davvero in grado di parlare per noi.
Guardate Google Duplex in azione nella demo durante Google I/O 2018:
Un altro tema importante, sia per Google I/O che per il WWDC di Apple di quest'anno, è stato il software che si gestisce da solo, in nome del benessere digitale. L'idea, piuttosto condiscendente, è che non lasceremmo i nostri device per uscire e annusare le rose a meno che essi stessi non ci ricordino di farlo.
Gli utenti, naturalmente, possono impostare le preferenze per questo genere di cose, eppure penso che non manchi molto per avere il nostro benessere e la gestione del tempo nelle mani dell'AI con un assistente intelligente che gestisce la routine di salute, lavoro e intrattenimento, secondo quanto ha appreso dalle nostre abitudini. E potrebbe essere molto positivo per molti, anche se personalmente io trovo questo livello di microgestione un vero e proprio incubo.
Ovviamente gli umani cercheranno di evitare di cedere le responsabilità all'IA, a meno che non ci sia un reale vantaggio. E ce ne saranno... in termini di convenienza, produttività, intrattenimento e via dicendo. I vantaggi saranno troppi e troppo buoni per resistere e io non appoggio chi desidera bannare la tecnologia. Accoglieremo la tecnologia AI per i suoi benefici e poi adegueremo le nostre aspettative sociali ad essa.
Che ci piaccia o no, la società si adatterà
Nel classico horror sull'AI di solito c'è una macchina super intelligente che diventa auto-consapevole e attacca i suoi creatori. Mentre l'AI malvagia è tanto realistica quanto vampiri o lupi mannari o altri classici temi dell'orrore, la vera lotta con l'intelligenza artificiale sarà reale ma più banale: il compromesso tra convenienza e responsabilità in una miriade di aspetti della vita quotidiana.
Non c'è alcuna consapevolezza dietro l'intelligenza artificiale come la conosciamo oggi, nessun sé o mente autonomamente pensante. Non stiamo costruendo degli dei AI, ma piuttosto dei fenomeni che sono più simili ai sistemi complessi ma senza una ragione consapevole in natura. Cose da cui dipendiamo e che sfruttiamo, ma non controlliamo.
Nel peggiore dei casi lamentarsi o mettere in dubbio i metodi degli algoritmi può essere assurdo come mettere in discussione le maree o il vento. Nel migliore dei casi, lo sviluppo responsabile e il consumo manterranno la responsabilità ultima nelle mani di esseri umani che possono fidarsi l'uno dell'altro, invece di dare la colpa ad una scatola nera.
Cosa ne pensate del ruolo che l'AI svolgerà nelle vostre vite quotidiane? Vi fidate già degli algoritmi con troppe responsabilità?
La vecchia idea di responsabilità personale resterà tra chi vive ancora come ai bei vecchi tempi: la cosa più “smart” che faccio con lo smartphone è giocare a un videogioco ogni tanto, ma il mio stereo e il mio scooter sono entrambi del 1992 (anno in cui il concetto di “intelligenza artificiale” era praticamente inesistente e sconosciuto a tutti). Aggiornamento: ho finito di leggere l’ articolo e la cosa sembra molto preoccupante (All'AI verrà data la possibilità di diagnosticare le malattie e "decidere" chi vive o muore, di fare chiamate commerciali da milioni di dollari e fare scelte tattiche nelle zone di guerra). Se la società si adeguerà, disattivare l’ AI (ammesso che sia possibile) e usare elettroniche e veicoli del vecchio millennio servirà davvero a poco!