Dalla medicina alla guerra, le IA si stanno sviluppando ad una velocità tale che ci riesce difficile capire cosa ne sarà di noi, come razza umana, nell’arco del prossimo ventennio.
Negli ultimi la discussione sulle intelligenze artificiali si è particolarmente sviluppata. È innegabile che molto sia dovuto all’ovvio sviluppo tecnologico, che ha permesso di passare dallo sviluppo di meri programmi di computazione (pensate ad esempio ai software scacchistici) a sistemi di machine learning, la cui brama di informazioni permette di essere di supporto in diversi campi umani, in primis quello analitico. Viviamo, in tal senso, un momento storico incredibile, e basta una ricerca su Google delle parole “intelligenza artificiale” per scoprire un nugolo di notizie che spaziano dalla politica, al mondo del lavoro, al terrorismo e persino la medicina. Quel che viene da domandarsi è se lo sviluppo delle IA e del machine learning possa però trascendere le regole umane, ovvero se una macchina dotata di intelletto possa soppiantare l’uomo o, in qualche misura, affiancarcisi fino ad infrangere le famose “leggi della robotica”.
In effetti questo problema, cioè quello relativo allo sviluppo delle cosiddette “super-intelligenze” preoccupa la comunità scientifica già da qualche tempo, complice proprio lo sviluppo tecnico e la capacità delle macchine di imparare. Le applicazioni del machine learning stanno, ad esempio, imparando moltissimo sui moti terresti nel campo della prevenzione dei terremoti, così come stanno capendo come distinguere i sintomi visibili di alcune malattie, come quelle oculari, per poter diagnosticare (con scarsissima percentuale d’errore) le malattie prima che queste peggiorino. Fintanto che il machine learning resta, insomma, isolato a specifici compartimenti tecnici, il problema sembrerebbe inesistente. Eppure val la pena chiedersi cosa dovesse accadere se, per ipotesi, un’intelligenza artificiale dovesse cominciare ad imparare con la velocità con cui si riproduce un virus informatico. Se partendo da una programma, questo acquisti coscienza e cominci a decidere per sé come un essere vivente.
Le opzioni sarebbero, probabilmente due: una sostituzione dell’essere umano da parte della macchina, o un affiancamento delle due specie. In entrambi i casi la sintesi sarebbe, come immaginato da Stephen Hawking, la nascita di una nuova forma di vita. La questione della sostituzione è, proprio negli ultimi mesi, uno dei temi centrali del mondo del lavoro. Nei principali paesi sviluppati, dove si stanno immaginando già le prime introduzioni di IA, comincia a stare a cuore, ad esempio, la sorte della classe media. Di quei lavoratori che, in sintesi, ricoprono ruoli dediti all’abilità manuale e motoria, e non manageriale. Già negli anni ’80 Hans Moravec, pioniere nello studio delle intelligenze artificiali, e nell’analisi del loro possibile impatto sulla società, presuppose che proprio il mondo del lavoro “medio” sarebbe stato quello che avrebbe più sofferto dell’arrivo delle macchine, poiché almeno in uno stadio iniziale, ci si sarebbe rivolti a queste per la mera manualità, essendo incapaci (all’epoca) di ricoprire ruoli che prevedessero una caratteristica fondamentale del pensiero umano: la scelta.
Questo succedeva ormai 30 anni fa, nonostante alle macchine di allora mancasse la fondamentale combinazione data dalla chiara percezione del mondo circostante e il relativo movimento che definisce propriamente un uomo adulto. Oggi tuttavia le cose sono ben diverse, e le macchine (persino le IA sui vostri smartphone) hanno già un’idea più o meno chiara di dove si trovino, di cosa le circondi, e di quali siano le loro possibilità al di là di un unico scopo prefissato. Ovviamente siamo ancora ai bordi della fantascienza, ma se prima si immaginava una distanza tra l’uomo e la “singolarità” (il momento ideologico in cui le macchine prenderanno coscienza di sé) di almeno 100 o forse 50 anni, fa riflettere, e forse preoccupare, che ora si ragioni in virtù di decenni, forse un ventennio appena. Il problema diventerà quindi: come possiamo regolare la disparità che si creerà tra uomo e macchina?
Questa domanda, apparentemente semplice (perché la risposta potrebbe essere, per i più “ponendo dei limiti”) è la chiave dell’evoluzione delle IA e del rapporto che sussisterà tra queste e gli esseri umani. Credere che le macchine figlie del machine learning non si evolveranno mai è, in sostanza, un pensiero utopico, perché è attraverso lo sviluppo di quelle IA che possiamo trarre i maggiori vantaggi economici (e non) nei principali campi dello sviluppo umano: medicina, ambiente e ovviamente guerra. Nessuno dei settori si arresterà nella corsa allo sviluppo, e poiché questo sarà esponenziale (come lo è stato dal primo calcolatore ad oggi, in proporzione a tutto il precedente progresso scientifico dal fuoco in poi), ne viene da sé che la famosa singolarità è un problema di “quando” e non di “se”.
Curioso che l’uomo, solo marginalmente, riesca in ogni aspetto della sua vita a inseguire quel progresso di cui è artefice. L’esempio più lampante deriva dal campo della regolamentazione giuridica delle macchine dove, tanto per dire, abbiamo cominciato ad interrogarci solo lo scorso anno in merito alla regolamentazione delle IA. Attraverso un processo lento che, in primis, trova difficoltà nel definire tanto la robotica quanto il concetto di intelligenza artificiale. Che cos’è un robot? E quando si parla di IA? Fa specie pensare che, giuridicamente, non esista una nozione univoca che dia specifiche uniche al diritto internazionale. Il paradosso, di nuovo, è che tutto questo conterà fino ad un certo punto. Quale che sarà il senso che daremo alle macchine, non sarà infatti importante. Perché sarà il senso che le macchine daranno a sé stesse a fare la differenza. Quando, cioè, avremo finito per essere i creatori di una razza che, in ultima istanza, potrebbe scegliere di metterci da parte.
A cura di Raffaele Giasi