Possiamo affidare la nostra vita, le nostre scelte alla tecnologia o meglio ad algoritmi, rischiando di perdere non solo la governabilità dei processi ma, soprattutto l’umanità stessa? L’uomo, quindi, al servizio della macchina?
Sartre (1905 – 1980) diceva: ‘La tecnologia digitale rischia di essere una libertà quando la si progetta e una gabbia quando la si è realizzata’.
Oggi, nel mondo, si sta lavorando per creare macchine che ‘impareranno’ da sole. Con l’’intelligenza artificiale’ la macchina sarà essa stessa capace di governare e di autogovernarsi?
È destinata a finire, come in uno scenario di fantascienza, la specie umana come la viviamo oggi?
Sostiene Hiroshi Ishiguro, lo scienziato giapponese creatore di Geminoid – un ‘umanoide’, una sorta di suo alter ego – che, nel futuro, si potrà persino superare la dualità tra uomo e macchina, tra intelligenza organica e intelligenza artificiale, dando ‘vita’ ad una società simbiotica umani – robot.
Ma cos’è, l’intelligenza artificiale?
Per Wikipedia, ‘L’intelligenza artificiale è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana’.
Un insieme di algoritmi. Un robot, un software che gli sviluppatori cercano di rendere ‘intelligente’, ovvero capace di imparare, crescere e migliorare anche dai suoi stessi errori o dalle sue stesse azioni. Un’automazione di ‘comportamenti intelligenti’?
Gli ambiti applicativi dell’intelligenza artificiale sono ritenuti dalle aziende un asset fondamentale per competere. ‘Dare intelligenza’ alle macchine permetterebbe, infatti, di sostituire in parte o del tutto attività svolte oggi dall’uomo.
La robotica e l’intelligenza artificiale promettono benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e commerciale ma per trasporti, assistenza medica, educazione e agricoltura. Una nuova rivoluzione industriale, insomma, suscettibile di toccare quasi tutti i settori e tutti gli strati sociali che richiede ora grande attenzione. In tutte le sue implicazioni.
Per il report ‘World Robotics’, sulla base dei dati diffusi dall**’IFR (International Federation of Robotics) relativi al mercato mondiale di robot industriali, gli investimenti nella robotica, nel 2018, hanno registrato 16.5 miliardi di dollari:** 422.000 unità vendute nel mondo, con un incremento del 6% rispetto all’anno precedente.
Soprattutto Stati Uniti, Giappone, Cina e Corea sono gli attori delle nuove frontiere tecnologiche, con approcci profondamente diversi tra loro che danno spazio alla ricerca privata o all’intervento pubblico centralistico.
Tutto il mondo si sta preparando alle potenzialità, alle complessità ma anche ai potenziali rischi che comporta l’intelligenza artificiale.
Tanti i temi aperti, anche di ordine giuridico. Tra questi, la disciplina della responsabilità degli ‘agenti intelligenti’, considerato che il criterio tradizionale di imputabilità è collegato ad una ‘condotta’ da parte del soggetto agente. Ma un’intelligenza artificiale pone in essere una sua autonoma condotta? O bisogna chiamare in causa la responsabilità del produttore piuttosto di chi realizza gli algoritmi decisionali?
L’Europa, in linea con la politica generale in tema di nuove tecnologie, partecipa alla grande sfida considerando, tuttavia, accanto al punto di vista tecnologico quello etico, sociale e legislativo, per interventi dei governi mirati a regole di salvaguardia di un’intelligenza artificiale ‘umanocentrica’.
L’Unione sottolinea i risvolti etici e sociali, evidenziando che lo sviluppo delle nuove tecnologie deve mirare ad integrare le capacità umane e non a sostituirle.
La Risoluzione del Parlamento europeo del 16 febbraio 2017 emanata per il miglioramento del funzionamento dell’Unione ha dato, tra l’altro, raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.
Ad aprile 2018, 25 Paesi membri dell’Unione Europea hanno sottoscritto una dichiarazione congiunta con la quale, tra i vari obiettivi, si sono impegnati a coordinare gli sforzi nell’implementazione di sistemi di intelligenza artificiale, focalizzando l’impegno a rendere maggiormente disponibili i dati pubblici ma ribadendo la necessità di assicurare la centralità dell’individuo nel loro sviluppo.
La strategia UE sull’intelligenza artificiale è orientata, quindi, ad una cooperazione tra i Paesi, per favorire lo sviluppo tecnologico attraverso un intervento dei governi per l’accesso ai dati pubblici e supporto al settore con investimenti, al contempo incentivando il confronto su regole di salvaguarda per gli esseri umani.
È, insomma, l’Europa a lanciare la vera sfida: coniugare la tradizione umanistica su cui si fondano i diritti fondamentali fissati dalla Carta Europea dei Diritti dell’Uomo con la spinta tecnologica dei dirompenti strumenti tecnologici.
E anche l’Italia si è mobilitata sull’argomento. A marzo 2018, l’Agenzia per l’Italia digitale ha pubblicato il ‘Libro Bianco’ – curato da un gruppo interdisciplinare di 30 esperti – frutto di un lavoro di consultazione che ha coinvolto circa un centinaio di soggetti pubblici e privati.
Si tratta del primo documento indirizzato alle amministrazioni pubbliche contenente indicazioni su come utilizzare al meglio le opportunità offerte dall’intelligenza artificiale, limitandone criticità e aspetti problematici, per sviluppare servizi pubblici sempre più a misura di cittadino. In particolare, nel ‘Libro’ si descrivono i vari profili etici, giuridici, tecnologici, culturali e le nuove tecnologie in relazione all’essere umano.
Grandi sono l’impegno e l’interesse sul delicato tema da parte del Vaticano, che a Roma ha organizzato, dal 26 al 28 febbraio, un approfondimento epocale a tutto campo.
Due le sessioni di studio del Convegno promosso dalla ‘Pontificia Accademia per la vita’: ‘Il buon algoritmo?’ (26-27 febbraio) e ‘Per un’Intelligenza Artificiale Umanistica’ (28 febbraio).
‘Rome Call for AI Ethics’. Si intitola così il documento a favore di una visione etica dell’intelligenza artificiale che sarà presentato il 28 febbraio nel corso di una conferenza pubblica all’Auditorium di via della Conciliazione 4, con il presidente della Pontificia Accademia per la vita Mons. Vincenzo Paglia, il presidente di Microsoft Brad Smith e il vicepresidente esecutivo di Ibm John Kelly III. Saranno presenti anche il presidente del Parlamento europeo David Sassoli e il direttore generale della Fao Dongyu Qu. Primi due firmatari: Microsoft e Ibm. Al termine della mattinata, il documento verrà portato a Papa Francesco che riceverà in udienza i promotori.
La Pontificia Accademia per la vita – istituita da San Giovanni Paolo II, 25 anni fa, ha avuto, in questi ultimi anni, una specifica attenzione alle nuove tecnologie, dedicando il biennio 2019-2020 alla robo-etica e alle questioni etico-antropologiche connesse alle cosiddette ‘intelligenze artificiali’. Un impegno che deriva anche da una richiesta di Papa Bergoglio che ‘ha esortato l’Accademia ad entrare nei territori della scienza e della tecnica e a percorrerli con coraggio e discernimento’, come ha detto Mons. Paglia.
Nella lettera ‘Humana Communitas’ di Papa Francesco – ricorda Mons. Paglia – il Pontefice evidenzia che ‘avvalendosi dei risultati ottenuti dalla fisica, dalla genetica e dalle neuroscienze, come pure della capacità di calcolo di macchine sempre più potenti, è oggi possibile intervenire molto profondamente nella materia vivente’. Come sottolinea Mons. Paglia ‘anche il corpo umano è suscettibile di interventi tali che possono modificare non solo le sue funzioni e prestazioni, ma anche le sue modalità di relazione, sul piano personale e sociale, esponendolo sempre più alle logiche del mercato. Occorre anzitutto comprendere le trasformazioni epocali che si annunciano su queste nuove frontiere, per individuare come orientarle al servizio della persona umana, rispettando e promuovendo la sua intrinseca dignità’.
Mons. Vincenzo Paglia, promotore della ‘Rome Call for AI Ethics’, sostiene: ‘È necessaria una diffusa consapevolezza sull’uso, sul significato, sull’impatto delle tecnologie, perché lo sviluppo tecnologico coinvolge tutta la famiglia umana. L’intelligenza artificiale è nelle sue fasi iniziali e ora è il momento di affermare la nostra responsabilità condivisa e lo scopo comune come esseri umani, società e governi per garantire che queste tecnologie emergenti siano sviluppate e utilizzate eticamente e per il bene dell’umanità e dell’ambiente’.
Inoltre, spiega ancora Mons. Paglia, ‘con lo sviluppo dell’intelligenza artificiale il rischio è che l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze’.
E così John Kelly III, vicepresidente esecutivo di Ibm, primo firmatario del documento insieme a Microsoft afferma: ‘La call è un importante passo avanti nel definire definizione di procedure etiche condivise’.
E il presidente di Microsoft, Brad Smith, sottolinea che la ‘Rome Call for AI Ethics’ ‘rappresenta un importante passo in avanti nella promozione di un dibattito pensato, rispettoso e inclusivo sul rapporto tra intelligenza artificiale ed etica’. Come già affermato un anno fa, Smith sostiene che ‘la tecnologia abbia il potere di risolvere alcune delle più grandi sfide del mondo, ma affinché sia un beneficio per tutti, deve essere guidata da forti principi etici che si fondano sui diritti umani’. Mentre, con riguardo al sistema alimentare, il direttore generale della Fao, Dongyu Qu, osserva che ‘l’intelligenza artificiale ha la possibilità di intervenire rendendo i sistemi alimentari più efficienti, sostenibili e inclusivi. Il compito davanti a tutti noi è minimizzare i rischi sfruttando i potenziali benefici di questa innovazione’.
Intanto, uno studio dell’Università di Princeton, pubblicato sulla rivista Science, ha dimostrato che i sistemi di intelligenza artificiale ereditano dall’uomo anche i pregiudizi e gli stereotipi culturali di razza, di genere ecc..
Ed alcuni ricercatori di Harvard e del Mit di Boston hanno sviluppato un’applicazione che ‘smaschera’ i testi scritti da intelligenze artificiali identificando fake news o articoli ‘scritti’ da una mano non-umana. L’acronimo che identifica il tool si chiama GLTR (Giant Language Model Test Room).
Lo sviluppo dell’intelligenza artificiale potrà garantire il trinomio evoluzione – tecnologia – consapevolezza? Sarà possibile scongiurare il sopravvento dell’intelligenza artificiale sull’umanità? Ma, soprattutto, lo sviluppo della coscienza umana è adeguato, oggi, allo sviluppo scientifico e tecnologico?
Tanti gli interrogativi. L’incontro tra scienza e coscienza promosso dal Vaticano nella giornata del 28 febbraio apre una riflessione a tutto tondo e il documento ‘Rome Call for AI Ethics‘ fisserà dei punti saldi nella difficile strada dell’intelligenza artificiale. Per un mondo sempre più consapevole delle sue potenzialità ma anche dei suoi limiti.
Elvira Frojo