Dal MIT arriva “Less Than One”

fluid-img

Far sì che una macchina possa svolgere attività di apprendimento non è facile. Non solo perché sono necessarie sempre nuove capacità tecniche che gli sviluppatori scoprono praticamente ogni giorno. Uno dei più grandi problemi che determina il ritmo del progresso tecnologico (che in alcune fasi è velocissimo, in altre molto lento e tortuoso) si può riassumere in un concetto: la reperibilità dei dati.

Un’intelligenza artificiale apprende “masticando” dati che noi umani le forniamo: più dati siamo in grado di fornirle, più profondo sarà l’apprendimento della macchina in un determinato ambito. Io, ad esempio, per sviluppare PoAItry”, la rete neurale in grado di scrivere poesie, le ho dovuto fornire un grande numero di libri di poeti: soltanto in questo modo la macchina ha imparato le regole della poesia per poi poterne produrre di sue.

Questo tipo di processo sembra molto simile a quello di noi umani: le nostre skills e le nostre competenze aumentano si affinano soltanto grazie allo studio e all’esperienza. Il materiale che studiamo, e il mondo che ci circonda, sono i nostri “dati”.

Ma – è sempre il caso di ribadirlo – un’intelligenza artificiale non è un’intelligenza umana: quando sviluppiamo un’IA non dobbiamo mai pensare di stare svolgendo un’imitazione della mente degli esseri umani. Una macchina è il frutto malleabile delle nostre capacità tecniche. La nostra mente, beh… è frutto di non si sa bene cosa: diciamo che i dibattiti in merito proseguono da qualche migliaio di anni!

Dicevamo: i dati.

Le macchine hanno bisogno di molti, moltissimi dati per poter arrivare a un apprendimento profondo e funzionale alle necessità umane. Ma tutti questi dati dove possono essere reperiti? Come si fa a reperirli? Chi li reperisce – e con quali criteri?

Se volessimo realizzare un’IA capace di scrivere articoli giornalistici… quali tipologie di testi dovremmo far apprendere alla macchina? Quali articoli, di quale periodo, firmati da quali giornalisti. E, soprattutto: quanti articoli sarebbero necessari per ottenere un apprendimento completo? Servirebbero miliardi e miliardi di dati.

Questi numeri enormi di dati, attualmente, sono necessari praticamente per ogni infrastruttura di questo tipo. La sconvolgente intelligenza artificiale GPT-3 non sarebbe tale se non contenesse un data set composto da miliardi e miliardi di parametri.

Il MIT, proprio pochi giorni fa, ha lanciato una proposta per tentare di arginare il “problema-dati”. Si tratta di un modello di AI chiamato “Less Than One”, e sembra essere davvero un modo per assottigliare questa grande necessità di dati che è alla base di ogni realizzazione d’intelligenze artificiali.

Si tratta di un processo – molto efficace, per ora, con le immagini – per poter distillare la quantità di dati necessaria per produrre un elemento.

Ecco un esempio molto chiaro proposto dallo stesso MIT: per realizzare l’immagine di un unicorno è possibile distillare in un unico ibrido l’immagine di un cavallo e quella di un rinoceronte – un po’ come quando si spiega a un bambino com’è fatto un unicorno, senza fargli vedere un’immagine esplicativa.

Grazie a questa intuizione il MIT ha realizzato un data set di “scritture a mano” incredibilmente ridotto. A partire da MNIST, un dataset composto da 60000 campiondi di calligrafia è riuscito a ridurlo in sole 10 immagini, sufficienti all’apprendimento di un algoritmo di IA. Al contempo nell’Università di Waterloo, in Ontario, si sta provando a comprimere ulteriormente questi modelli, sfruttando tra l’altro un algoritmo molto semplice e basico, il KNN.

Tutto questo lavorio scientifico attorno alla riduzione delle necessità di dati è davvero molto importante. Quantomeno per due motivi:

Stiamo imparando, finalmente, a non realizzare le IA mimando modelli d’intelligenza umana. Si fa sempre più solida la consapevolezza che stiamo maneggiando un meccanismo tecnologico: stiamo ragionando attorno a intelligenze ulteriori, non abbiamo di fronte degli spin-off dell’intelligenza umana.

Se il MIT procede a questa velocità, le ricerche in questo ambito ci porteranno ad avere nel giro di poco tempo delle infrastrutture con dati piccoliportatili e comodi per fare allenare le IA. E questo vuol dire che sempre più persone, non dovendo affrontare il problema del reperimento dei dati (e potendo utilizzare algoritmi molto semplici come il KNN), potranno allenare un’intelligenza artificiale.

Non è dunque folle pensare che tra qualche tempo chiunque potrà avere la “sua” IA: la propria macchina, alla quale far apprendere agevolmente ciò che si vuole.

Uno scenario che, per una volta, non dovrebbe risultare inquietante, ma soltanto entusiasmante.