Loader
Chiamatela artificiale, ma non intelligenza
6341
post-template-default,single,single-post,postid-6341,single-format-standard,bridge-core-3.0.1,qode-page-transition-enabled,ajax_fade,page_not_loaded,,qode-title-hidden,transparent_content,qode-theme-ver-28.6,qode-theme-bridge,disabled_footer_bottom,qode_header_in_grid,wpb-js-composer js-comp-ver-6.7.0,vc_responsive
IA

Chiamatela artificiale, ma non intelligenza

Le Intelligenze artificiali sono istruite con tecniche di apprendimento profondo (deep learning) che non hanno alcuna idea di ciò di cui non hanno nessuna idea.

 

Il pericolo è puramente semantico, fino a quando non diventa reale. Definire intelligente ciò che non lo è non fa bene a nessuno, neppure alle metriche con cui le intelligenze vengono definite e misurate (non è questa la sede per aprire dibattiti sull’efficacia e sull’attendibilità dei metodi per misurarle).

Partiamo dall’uomo

Il modello di apprendimento dell’uomo porta a diverse configurazioni:

  1. Sappiamo ciò che sappiamo
  2. Sappiamo di non sapere
  3. Sappiamo (in linea astratto-teorica) che esistono cose che non sappiamo
  4. Non sappiamo di non sapere

 

Arriviamo alle Intelligenze artificiali

I modelli di apprendimento delle Intelligenze artificiali (IA) non sono del tutto immuni alle logiche del sapere / non sapere.

Istruisco un modello di classificazione in grado di riconoscere tutte le maglie di tutte le squadre di calcio del mondo. Tutte: prime squadre, squadre minorili, femminili… includendo per ognuna di queste la prima, la seconda e laddove esiste anche la terza maglia.

La squadra dei Pulcini del Torino adotta una nuova divisa, cambiando la seconda maglia con una mai usata prima. Il mio modello non la conosce e ora deve classificarla.

Considerando che le squadre, soprattutto le più ricche, cambiano le divise con una certa regolarità, in assenza di continui interventi sul modello di classificazione, questo sarà sempre più impreciso con il passare del tempo. Un lavoro lungo, perpetuo e costante, perché i modelli di classificazione:

  1. Sanno quello che sanno
  2. Non sanno quello che non sanno

Mentre l’uomo ha almeno una vaga idea di quelli che sono i suoi limiti, un modello di apprendimento (che sia machine learning o deep learning) non ha alcuna idea di quali siano i suoi.

Faccio una prova, dando in pasto al mio script la nuova maglia delle giovanili del Torino, istruito a dare comunque una risposta e questa, nel caso specifico, è sbagliata.

Una cosa interessante è che i due ricercatori impegnati in questo progetto hanno visioni diverse dell’accaduto. La nuova seconda maglia delle giovanili del Torino è molto simile a quella del Paris Saint-Germain Football Club, squadra a cui lo script ha associato la maglia. Uno dei due ricercatori, davanti alla risposta sbagliata, sostiene che si è trattato di una previsione a bassa confidenza, l’altro è invece convinto che lo script ha restituito una risposta ad alta confidenza poiché, pure essendo una risposta errata, le due maglie sono del tutto simili.

E questo è niente perché, senza continui aggiornamenti, il modello sarà sempre meno efficace. Ciò nonostante, ognuno dei ricercatori sta perdendo tempo a spiegare all’altro la bontà della sua opinione.

Errori concettuali ed errori nei dati (imprecisioni concettuali e inadeguatezza dei dati) sono due problemi enormi che possono rendere inutile un qualsiasi modello non aggiornato in modo costante.

Se l’esempio delle divise delle squadre di calcio non aiuta a calarsi a fondo nel problema (ed è così), basti pensare al riconoscimento facciale: un uomo con il volto molto simile a quello di un pericoloso criminale passa un brutto quarto d’ora a causa di una risposta “ad alta confidenza” che, però, è sbagliata. È un problema serio sul quale si sta lavorando.

L’aggettivo artificiale è inopinabile, è sul sostantivo che sollevo qualche obiezione.

(Immagine: Pietro Jeng/unsplash)