Print Mail Pdf
condividi  Facebook   Twitter   Technorati   Delicious   Yahoo Bookmark   Google Bookmark   Microsoft Live   Ok Notizie

polvani

Simili agli uomini ma non umani

Il Machine Learning futuro delle intelligenze artificiali

di Carlo Maria Polvani

Si registra una sempre più incisiva pervasività dell’intelligenza artificiale (IA) in ogni campo dell’interagire umano. Alcune applicazioni dell’IA sono fonte di meraviglia e di speranza — il raffinatissimo logiciel messo a punto dall’Hôpital Cochin di Parigi, che permette di diagnosticare tumori per mezzo dell’interpretazione d’immagini radiologiche con una precisione mai raggiunta finora — altre di preoccupazione e di timore — l’avanzatissimo progetto di drone da combattimento nEUROn da parte della Dassault Aviation, che contemplerebbe la completa autonomia decisionale di un robot nell’intraprendere azioni militari. Il Professor Yuval Noah Harari dell’Università Ebraica di Gerusalemme, autore del fortemente dibattuto best seller, edito dalla Bompiani Sapiens. Breve storia dell’umanità, non esita a collegare il futuro della nostra specie a quello dell’IA, chiedendosi nel suo altrettanto controverso ultimo saggio Homo Deus. Breve storia del futuro, «cosa ne sarà della società, della politica, della vita di tutti i giorni quando algoritmi, altamente intelligenti ma non dotati di una coscienza umana, ci conosceranno meglio di noi stessi?».

Le ragioni che hanno permesso lo sviluppo dell’IA nell’ultimo mezzo secolo sono riconducili ai progressi tecnici alla base della Information and Communication Technology. Indispensabile è stata l’affermazione di un linguaggio universale che traducesse i più svariati tipi di informazione in semplici numeri binari (in base 2 anziché 10). Digitalizzata in soli 0 e 1, l’informazione ha potuto essere trattata da interruttori integrati in circuiti (i microchip) inseriti in sempre più potenti elaboratori elettronici. Grazie all’interconnessione fra questi ultimi (il World Wide Web) poi, l’enorme massa d’informazioni venuta a crearsi (il Big Data) è diventata una mina d’oro — da qui, la denominazione di Data Mining — per programmatori che scrivessero algoritmi (delle serie di calcoli in sequenza) che ricercassero, sfruttando una inedita organizzazione decentralizzata dei dati stessi (il Blockchain), delle relazioni fra questi ultimi. Tuttavia, nell’ultimo decennio, l’IA è riuscita a trasformarsi in qualche cosa di molto più che un mero meccanismo di calcolo programmato, diventando un vero e proprio sistema di elaborazione capace di adattarsi e di ottimizzarsi autonomamente. Questa nuova capacità — genericamente conosciuta come Machine Learning — rappresenta un salto di ordine qualitativo e non quantitativo, come lo illustra il seguente esempio.

Una squadra di ricercatori della University of California at Los Angeles, col fine di aiutare le mamme e i papà con problemi di udito, ha creato una app scaricabile su smartphone, che interpreta il pianto dei neonati e indica i bisogni soggiacenti ai loro vagiti. La ChatterBaby si basa su un algoritmo scritto da un team interdisciplinare della Ucla che ha digitalizzato i tracciati di un migliaio di gemiti e ha associato a dei parametri matematici dei medesimi — quali la lunghezza del suono, la frequenza, le interruzioni — i rispettivi stati di stress dei neonati — quali la fame, il dolore, la necessità d’essere cambiati — che li avevano emessi. Quando un genitore registra sul cellulare il piagnisteo del suo fanciullo, la app non fa altro che paragonare i parametri dei nuovi piagnucolii con quelli già in memoria e dedurre, per convergenza probabilistica, le presunte necessità dell’infante (con una precisione del 90 per cento almeno secondo alcuni soddisfatti utilizzatori).

Anche se tale performance pare ottimistica, non vi è dubbio che la ChatterBaby migliorerà la qualità delle sue interpretazioni mano a mano che memorizzerà sempre più tipi di lamenti infantili e affinerà i parametri di analisi degli stessi. Ma lo stesso applicativo potrebbe trasformarsi in uno strumento ben più potente grazie al Machine Learning che gli permetterebbe di riprogrammarsi da solo per cercare, trovare e collegare informazioni rilevanti non originalmente previste (e.g., i dati della cartella clinica dell’infante) e persino, avere la libertà di prendere decisioni da solo (e.g., nel caso in cui registrasse un vagito inquietante, fornire ai servizi sociali i dati dei genitori). È il parere di molti esperti che il Machine Learning rappresenti il passo decisivo nella creazione di vere e proprie macchine capaci di imitare le capacità di apprendimento tipiche del cervello umano.

Tale ambizioso progetto passa, in primis, per il passaggio del patrimonio della conoscenza umana alle IA; questo sforzo si chiama Data Labelling. Nel «New York Times» del 20 di agosto, l’articolo The Tedium of Teaching A.I. descrive come siano nate delle aziende start-up che assumono professionisti qualificati col solo fine di codificare il loro sapere in informazioni pronte per l’uso delle IA. Un secondo sforzo va nella direzione di cambiare la struttura fisica dei circuiti delle macchine su cui girano le IA configurandoli a mo’ di reti neuronali sul modello di una corteccia cerebrale umana; questo tentativo — su cui si sta giocando la fattibilità di una forma avanzata di Machine Learning conosciuta come Deep Learning — ha dato risultati promettenti tanto che alcuni — come l’eccentrico Elon Musk fondatore della Neuralink — promettono l’imminente interfacciabilità fra reti neurali artificiali e reti neurali biologiche. Una terza area di ricerca è quella di progettare i meccanismi di apprendimento autonomo delle IA ispirandosi all’incredibile plasticità della mente umana durante l’infanzia e programmando delle macchine che imitino le procedure di apprendimento tipiche dei bambini. Sulla fattibilità stessa di questo progetto rimangono varie incognite che andrebbero considerate alla luce di due eccellenti saggi — rispettivamente di Stanislas Dehaene e di Olivier Houdé — recentemente pubblicati dalla Odile Jacob. Nel primo, Apprendre! L’intelligence du cerveau, le défi des machines, il Professore al Collège de France, tracciando un brillante paragone sulle differenze delle funzioni di apprendimento fra il nostro cervello e le IA, sostiene che le facoltà umane di imparare non potranno essere imitate sic et simpliciter dalle macchine, visto che sono dipendenti da una miriade di fattori complessi (e.g., le interazioni familiari, il tipo di educazione scolastica, il ruolo del sonno e del gioco).

Nel secondo, L’intelligence humaine n’est pas un algorithme, il Presidente onorario del Laboratoire de psychologie du développement et de l’education de l’enfant della Sorbonne ipotizza degli ostacoli forse insormontabili nel trasferimento dei metodi di apprendimento umani su piattaforme tecnologiche. Basandosi sugli studi pionieristici degli stadi cognitivi dell’infanzia dell’illustre Jean Piaget (1896-1980), egli prospetta l’esistenza di due circuiti di acquisizione di conoscenze negli umani: quello euristico basato sulle intuizioni e quello algoritmico fondato su deduzioni logiche. Il segreto dell’efficienza dell’apprendimento nei bambini consisterebbe in un delicato bilanciamento dei due meccanismi grazie a veri e propri freni inibitori dell’immissione di nuove conoscenze, fin quando quelle già acquisite non siano state organizzate in schemi sicuri. Paradossalmente, i lavori di Dehaene e di Houdé suggeriscono che lo sviluppo dell’IA potrebbe servire non solo e non tanto alla creazione di macchine ultra- performanti quanto a svelare i misteri che portano alla formazione di strutture di conoscenza e d’interazioni tipicamente umane quali la coscienza del proprio agire, la consapevolezza di sé stessi e i sentimenti verso il prossimo.

È quasi certo infatti che le IA imiteranno sempre meglio gli uomini come dimostrano i progressi nell’ambito delle traduzioni linguistiche per mezzo di interpreti elettronici (si veda, sempre della Odile Jacob, il contributo del Professor Thierry Poibeau, Babel 2.0. Où va la traduction automatique?); resta da sapere se la creazione di avanzatissime IA permetterà agli uomini di scoprire meglio chi sono o se, invece, li condannerà a ridursi a una mera copia di loro stessi. Come consigliato dall’articolo AI and literature: the muse in the machine del «Financial Times» del 9 agosto, utopisti e catastrofisti dell’IA dovrebbero ispirarsi al poema Ulysses di Alfred Tennyson (1809-1892), nel quale l’eroe omerico, ritrovati gli affetti di Penelope e di Telemaco a Itaca, prende la fatale decisione di abbandonarli, inebriato dalla sete di sapere che smania di appagare partendo per una seconda odissea: «Venite amici, che non è tardi per scoprire un mondo nuovo. Io vi propongo di andare più in là dell’orizzonte […]; siamo ancora gli stessi: unica, eguale tempra di eroici cuori, indeboliti forse dal fato, ma con ancora la voglia di combattere, di cercare, di trovare e di non cedere». Se non vuole pagare a caro prezzo il suo progresso, la specie umana dovrà mettere al centro di ogni sua avventura sé stessa; questo, più che un atto di intelligenza dovrà essere un atto di volontà.

Pubblicato in L'Osservatore Romano, 15/09/2019.