Reti Neurali, Machine Learning, Deep Learning, Automi, intelligenze di silicio, Robot che parlano tra loro ed effettuano delle scelte in base ad una loro logica, che si evolve in modo autonomo, come una scatola chiusa. Sembra quasi uno scenario lontano e cinematografico ma che in realtà già esiste e che necessita di essere compreso a fondo per poterne percepire pregi, difetti, opportunità e minacce.

Per parlare dell’origine di una qualsiasi intelligenza artificiale classica bisogna parlare di Reti Neurali Artificiali, una struttura matematica neanche troppo complessa che ricalca in modo fedele il modello di Rete Neurale Biologico, cioè la molteplicità di neuroni e le relative interconnessioni presenti nel nostro cervello.

Tramite il nostro cervello riusciamo a riconoscere degli oggetti simili per il semplice fatto di averli visti e aver acquisito quelle che sono le loro caratteristiche principali. Oltre a poter raggruppare oggetti “simili” tra loro il nostro cervello riesce a prendere delle decisione precise e quindi passare a formulare dei risultati non più generici ma “discreti”.  Pensate per esempio al fatto di poter distinguere dei veicoli in base al numero di ruote o al fatto di vedere una curva e decidere di sterzare a destra piuttosto che a sinistra.

Sono proprio questi i tipi di problemi dei quali si occupa una Rete Neurale (Artificiale): classificare, elaborare risultati discreti, generalizzare. Quasi tutti i problemi della vita che conosciamo possono essere ricondotti a questo ed una molteplicità di campi applicativi possono essere trovati per essere macinati dalle reti neurali.

Ma com’è fatta una rete neurale?

Il primo modello di Rete Neurale viene elaborato molto tempo fa, nel lontano 1943 da McCulloch e Pitts. I due scienziati pensano ad un modello matematico che possa rappresentare il funzionamento di un neurone biologico, con tanto di sinapsi, stimoli e soglie di attivazione.

Un neurone non è altro che una funzione che somma dei valori in ingresso moltiplicati per un altro numero, un peso associato al collegamento da cui il valore proviene e, a raggiungimento di una soglia il neurone si “accende” producendo un valore, fino a quel momento (il 1943) solo binario cioè 1 o 0.

Il modello però è troppo semplice e, per non dilungarci molto, vede miglioramenti sostanziali qualche anno dopo, nel 1949, grazie ad Hebb che riesce a migliorare il modello di apprendimento di questi neuroni artificiali interconnessi tra loro e segnare il passo verso un modello di intelligenza più profonda.

Dieci anni dopo il Machine Learning inizia a prende sempre più piede e trova il contributo di Bayer, di una comunità scientifica in fermento e di macchine vettoriali, superveloci e tecnologie sempre più scalabili e potenti.

Arriviamo nel 2010 ed il Deep Learning, cioè un apprendimento “profondo” di queste reti neurali, ci permette di fare cose che ormai a noi sembrano banali, come riconoscere volti in una fotografia e cose meno banali, come l’esperimento di Google Duplex che consiste in una intelligenza artificiale, in via sperimentale, che potrà chiamare e parlare al nostro posto.

Tutto questo grazie a dei nodi interconnessi e che rappresentano, anche per i non addetti ai lavori, una scatola chiusa che apprende tramite modi dettati dall’uomo ma evolve secondo i suoi modi che anche ai più esperti a volte sono sconosciuti. Basta pensare all’esperimento, ora sospeso, di Facebook sui due Robot dotati di intelligenza propria che hanno cominciato a dialogare in un linguaggio sconosciuto all’uomo.

L’intelligenza di base ha una struttura semplice ma dalle evoluzioni inaspettate che meritano un’attenta analisi su tutti i suoi possibili campi di applicazione e scenari futuri.

Di seguito alcuni eventi dove tratteremo le tematiche di intelligenza artificiale:

Per il programma completo vi rimandiamo alla sezione relativa del sito.