Loader
Singolarità tecnologica, ovvero quando la futurologia resta tale
5979
post-template-default,single,single-post,postid-5979,single-format-standard,bridge-core-3.0.1,qode-page-transition-enabled,ajax_fade,page_not_loaded,,qode-title-hidden,transparent_content,qode-theme-ver-28.6,qode-theme-bridge,disabled_footer_bottom,qode_header_in_grid,wpb-js-composer js-comp-ver-6.7.0,vc_responsive

Singolarità tecnologica, ovvero quando la futurologia resta tale

La Super intelligenza artificiale, quella capace di fare a meno dell’uomo, è un’utopia che resta tale. Gli speranzosi e i timorosi possono placare i rispettivi animi

La singolarità tecnologica, comparto della futurologia, si raggiunge quando le tecnologie si emancipano e superano ciò che l’uomo è in grado di concepire, capire e prevedere. In questo ambito si parla sempre più spesso di Super intelligenza artificiale, quella che provvede da sé senza bisogno di input umani. Non siamo più vicini (né più lontani) alla Super intelligenza artificiale di quanto non lo fossimo 30 o 40 anni fa.

Ipotetici riscontri

La Super intelligenza artificiale incute timore grazie a una corposa immagine costituita da una vasta letteratura (con, a capostipite, Isaac Asimov) e un’iconografia cinematografica che vede un eroe – spesso uno solo – combattere contro orde di robot spietati e determinati a fare tabula rasa del genere umano.

Pericoli tanto remoti quanto suggestivi. In tempi più recenti (siamo nel 2015), si sono presi la briga di versare benzina sul fuoco menti sublimi come quelle di Noam Chomsky, Stephen Hawking, Elon Musk e Steve Wozniak (insieme ad altre decine di scienziati e ricercatori) i quali, con una missiva congiunta, presentata durante la International Joint Conference on Artificial Intelligence di Buenos Aires, hanno chiesto di bandire l’uso di armi intelligenti. Lo scenario descritto è, ancora una volta, interamente immerso nella futurologia: il rischio, scrivono i membri del Gota delle scienze, è che un’intelligenza artificiale decida quando e contro chi sferrare un attacco militare. Tutto in piena autonomia, senza dispiegare il braccio diplomatico, senza chiedere l’intervento di Consigli di sicurezza governativi.

Una prospettiva simile fa ovviamente paura ma, al pari di ogni altro sentimento, la paura non è sempre giustificata.

Bambini per nulla precoci

La Super intelligenza artificiale è come le macchine volanti: se ne parla da decenni e, puntualmente, si posticipa nel futuro il momento in cui diverranno realtà.

Nel caso dell’intelligenza artificiale autonoma, il primo e non eludibile requisito è che le reti neurali sulle quali si sviluppa, riescano a emulare numericamente i neuroni dell’uomo e, a tutt’oggi, siamo molto lontani.

Oggi ci sono ambiti in cui le intelligenze artificiali sono complementari all’uomo, si pensi alla diagnostica medica: sono in grado di riconoscere malattie, anche gravi, molto meglio di quanto fa un radiologo o un ematologo. Ed è già un successo strepitoso.

In altri ambiti, laddove c’è bisogno di quella che per noi umani è l’astrazione di pensiero, le intelligenze artificiali sono poco più che bambini. Nel 2017 è stato allestito un esperimento in cui, a un agente (un dispositivo fisico o virtuale di intelligenza artificiale in grado di percepire l’ambiente circostante) è stato chiesto di non perdere vite nello svolgimento del secondo livello di un videogioco. L’esecuzione del comando è stata intesa alla lettera, tant’è che l’agente si è “suicidato” alla fine del primo livello.

Nel 2013, quindi quattro anni prima, a un agente è stato impartito l’ordine di giocare a Tetris senza perdere. Ci si aspettava che imparasse dall’esperienza acquisita giocando e, con l’aumentare della difficoltà del gioco, le sue risposte fossero sempre più adeguate e performanti. Invece ha deciso di mettere il gioco in pausa, raggiungendo così lo scopo prefissato.

Fragili e furbe

Siamo al punto in cui le intelligenze artificiali risultano più fragili e furbe di quanto non siano dotate di inarrivabile scaltrezza e sopraffina capacità di raziocinio. Sanno riconoscere qualsiasi pianta e arbusto ma non sanno cosa sia un bosco, sanno riconoscere un calzino e un piede ma non un piede che indossa un calzino, occorre farglielo vedere per fare in modo che lo sappiano.

Se è di questo che occorre avere paura, allora possiamo dormire sonni tranquilli. Non hanno capacità di astrazione, non conoscono nulla di ciò che non è stato mostrato loro. Vivono di solipsismo metafisico, nel loro mondo esiste soltanto ciò che gli è stato detto del mondo.

Non sanno astrarre, non sanno fare uso delle più basilari doti dell’uomo. Basta avvicinare un adesivo con colori sgargianti a una banana per fare in modo che l’immagine venga classificata con l’etichetta “tostapane”. L’intelligenza artificiale, il costrutto che appoggia sul Machine learning, sul Deep learning e su altre discipline, ha bisogno di immagini e descrizioni chiare, precise e univoche. La bontà dei dati con cui è istruita è di vitale importanza e, in quanto a nettezza dei dati, abbiamo ancora molto da lavorare per avvicinarci.

Da Kasparov a Sedol

La prova di tutto quanto scritto fin qui ce la forniscono gli scacchi e Go, entrambi giochi da scacchiera, in due momenti distinti: il 1997 e il 2016. Nel 1997 Deep Blue, un computer di IBM, ha battuto il campione del mondo di scacchi Garry Kasparov. Nel 2016 AlphaGo, un software progettato da Google DeepMind, ha battuto il pluri-campione di Go, Lee Sedol.

La distanza tra i due momenti è siderale: oggi, complice anche un revisionismo concessoci dall’accelerazione della ricerca, possiamo dire che nel 1997 i computer sono diventati sufficientemente performanti per compiere e memorizzare le mosse su una scacchiera 8 x 8, sulla quale ogni singolo pezzo ha un numero limitato di movimenti da compiere. Miliardi di combinazioni che, i fatti lo hanno dimostrato, non sono proibitive per la capacità di calcolo di un computer.

Nel 2016 sono successe due cose: l’intelligenza artificiale ha battuto l’uomo su una scacchiera 19 x 19 senza limiti di movimento e, parallelamente, sono passati 19 anni dal successo di Deep Blue. Dato per nulla ininfluente considerando che, per fare questo salto di qualità, sono servite quasi due decadi.

AlphaGo ha giocato a secco decine di milioni di partite, valutando e memorizzando ogni posizione e combinazione possibile. Quando ha giocato contro Sedol, a detta degli esperti, AlphaGo ha fatto mosse inspiegabili in prima battuta che hanno però assunto un senso dozzine di mosse dopo. Anche in questo caso, però, si tratta più di un “bluff” che di una strategia specifica: non ha né estrapolato né interpolato nulla nel contesto, ha sfruttato quell’ipertimesia su cui l’uomo non può fare affidamento.

Furbizia e intelligenza sono due cose diverse, così come sono diverse la buona memoria e la capacità di farne uso coerente e ponderato.

Rapidità di esecuzione e memoria sono due ambiti in cui l’intelligenza artificiale ha superato l’uomo ma, ancorché pregevole, la memoria perfetta è utile a ricordare i motivi per cui fare una guerra ma è insufficiente a scatenarne una.