Home Notizie recenti Le simulazioni neuromorfiche possono produrre vantaggi computazionali rilevanti per molte applicazioni

Le simulazioni neuromorfiche possono produrre vantaggi computazionali rilevanti per molte applicazioni

159
0

Mostrando un vantaggio neuromorfico, entrambi i chip neuromorfici IBM TrueNorth e Intel Loihi osservati dai ricercatori dei Sandia National Laboratories erano significativamente più efficienti dal punto di vista energetico rispetto all’hardware di elaborazione convenzionale. Il grafico mostra che Loihi può eseguire circa 10 volte più calcoli per unità di energia rispetto a un processore convenzionale. L’energia è il fattore limitante: è possibile inserire più chip per eseguire le cose in parallelo, quindi più velocemente, ma la stessa bolletta elettrica si verifica sia che si tratti di un computer che fa tutto o di 10.000 computer che fanno il lavoro. Credito: Laboratori Nazionali Sandia

Con l’inserimento di un po’ di matematica, i ricercatori dei Sandia National Laboratories hanno dimostrato che i computer neuromorfici, che replicano sinteticamente la logica del cervello, possono risolvere problemi più complessi di quelli posti dall’intelligenza artificiale e possono persino guadagnarsi un posto nel calcolo ad alte prestazioni.

I risultati, dettagliati in un recente articolo sulla rivista Elettronica della naturamostrano che le simulazioni neuromorfiche utilizzando il metodo statistico chiamato passeggiate casuali possono tracciare i raggi X che passano attraverso le ossa e i tessuti molli, la malattia che passa attraverso una popolazione, le informazioni che fluiscono attraverso i social network e i movimenti dei mercati finanziari, tra gli altri usi, ha affermato il neuroscienziato teorico Sandia e il ricercatore capo James Bradley Aimone.

“Fondamentalmente, abbiamo dimostrato che l’hardware neuromorfico può produrre vantaggi computazionali rilevanti per molte applicazioni, non solo per l’intelligenza artificiale a cui è ovviamente imparentato”, ha affermato Aimone. “Le applicazioni scoperte di recente vanno dal trasporto di radiazioni e simulazioni molecolari alla finanza computazionale, alla modellazione biologica e alla fisica delle particelle”.

In casi ottimali, i computer neuromorfici risolveranno i problemi più velocemente e utilizzeranno meno energia rispetto ai computer convenzionali, ha affermato.

Le affermazioni audaci dovrebbero interessare la comunità dell’informatica ad alte prestazioni perché trovare capacità per risolvere problemi statistici è una preoccupazione crescente, ha affermato Aimone.

“Questi problemi non sono molto adatti per le GPU [graphics processing units]che è ciò su cui probabilmente faranno affidamento i futuri sistemi a esascala”, ha affermato Aimone. “La cosa eccitante è che nessuno ha mai esaminato il calcolo neuromorfico per questo tipo di applicazioni prima d’ora”.

L’ingegnere e autore di articoli di Sandia Brian Franke ha affermato: “La naturale casualità dei processi che elenchi li renderà inefficienti se mappati direttamente su processori vettoriali come le GPU negli sforzi computazionali di prossima generazione. Nel frattempo, le architetture neuromorfiche sono un’alternativa intrigante e radicalmente diversa per le particelle simulazione che può portare a un approccio scalabile ed efficiente dal punto di vista energetico per risolvere i problemi di nostro interesse.”

Franke modella la radiazione di fotoni ed elettroni per comprenderne gli effetti sui componenti.

Il team ha applicato con successo algoritmi di calcolo neuromorfico per modellare passeggiate casuali di molecole gassose che si diffondono attraverso una barriera, un problema di chimica di base, utilizzando la piattaforma Loihi da 50 milioni di chip che Sandia ha ricevuto circa un anno e mezzo fa da Intel Corp., ha affermato Aimone . “Poi abbiamo dimostrato che il nostro algoritmo può essere esteso a processi di diffusione più sofisticati utili in una vasta gamma di applicazioni”.

Le affermazioni non intendono sfidare il primato dei metodi di elaborazione standard utilizzati per eseguire utility, desktop e telefoni. “Ci sono, tuttavia, aree in cui la combinazione di velocità di elaborazione e minori costi energetici può rendere l’elaborazione neuromorfica la scelta in definitiva desiderabile”, ha affermato.

A differenza delle difficoltà poste dall’aggiunta di qubit ai computer quantistici, un altro metodo interessante per superare i limiti dell’informatica convenzionale, i chip contenenti neuroni artificiali sono economici e facili da installare, ha affermato Aimone.

Potrebbe esserci ancora un costo elevato per spostare i dati dentro o fuori dal processore del neurochip. “Man mano che ne raccogli di più, il sistema rallenta e alla fine non funzionerà affatto”, ha affermato William Severa, matematico e autore di articoli di Sandia. “Ma abbiamo superato questo problema configurando un piccolo gruppo di neuroni che ha effettivamente calcolato le statistiche di riepilogo e abbiamo prodotto quei riepiloghi invece dei dati grezzi”.

Severa ha scritto molti degli algoritmi dell’esperimento.

Come il cervello, il calcolo neuromorfico funziona elettrificando piccole strutture a forma di spillo, aggiungendo minuscole cariche emesse dai sensori circostanti fino a raggiungere un certo livello elettrico. Quindi il perno, come un neurone biologico, emette una piccola scarica elettrica, un’azione nota come spiking. A differenza della regolarità metronomica con cui le informazioni vengono trasmesse nei computer convenzionali, ha affermato Aimone, i neuroni artificiali dell’informatica neuromorfica lampeggiano in modo irregolare, come fanno quelli biologici nel cervello, e quindi potrebbero richiedere più tempo per trasmettere informazioni. Ma poiché il processo esaurisce le energie dai sensori e dai neuroni solo se forniscono dati, richiede meno energia dell’elaborazione formale, che deve interrogare ogni processore indipendentemente dal fatto che contribuisca o meno. Il processo concettualmente bio-based ha un altro vantaggio: i suoi componenti di elaborazione e memoria esistono nella stessa struttura, mentre l’informatica convenzionale consuma energia per trasferimento a distanza tra queste due funzioni. Il lento tempo di reazione dei neuroni artificiali inizialmente può rallentare le sue soluzioni, ma questo fattore scompare man mano che il numero di neuroni aumenta, quindi più informazioni sono disponibili nello stesso periodo di tempo da sommare, ha affermato Aimone.

Il processo inizia utilizzando una catena di Markov, un costrutto matematico in cui, come un tabellone del monopolio, il risultato successivo dipende solo dallo stato attuale e non dalla storia di tutti gli stati precedenti. Quella casualità contrasta, ha detto il matematico e autore di articoli di Sandia Darby Smith, con la maggior parte degli eventi collegati. Ad esempio, ha affermato, il numero di giorni di permanenza in ospedale di un paziente è determinato almeno in parte dalla durata della degenza precedente.

A partire dalla base casuale di Markov, i ricercatori hanno utilizzato le simulazioni Monte Carlo, uno strumento computazionale fondamentale, per eseguire una serie di passeggiate casuali che tentano di coprire il maggior numero possibile di percorsi.

“Gli algoritmi Monte Carlo sono un metodo di soluzione naturale per i problemi di trasporto delle radiazioni”, ha affermato Franke. “Le particelle sono simulate in un processo che rispecchia il processo fisico”.

L’energia di ogni camminata è stata registrata come un singolo picco di energia da un neurone artificiale che leggeva a turno il risultato di ogni camminata. “Questa rete neurale è più efficiente dal punto di vista energetico rispetto alla registrazione di ogni momento di ogni passeggiata, come deve fare l’informatica ordinaria. Ciò spiega in parte la velocità e l’efficienza del processo neuromorfico”, ha affermato Aimone. Più chip aiuteranno il processo a muoversi più velocemente utilizzando la stessa quantità di energia, ha affermato.

La prossima versione di Loihi, ha affermato il ricercatore di Sandia Craig Vineyard, aumenterà la sua attuale scala di chip da 128.000 neuroni per chip fino a un milione. I sistemi su larga scala combinano quindi più chip su una scheda.

“Forse ha senso che una tecnologia come Loihi possa trovare la sua strada in una futura piattaforma di calcolo ad alte prestazioni”, ha affermato Aimone. “Questo potrebbe aiutare a rendere l’HPC molto più efficiente dal punto di vista energetico, rispettoso del clima e semplicemente più conveniente”.


Articolo precedenteUtilizzo di contratti blockchain per creare botnet
Articolo successivoUtilizzo di dispositivi indossabili per addestrare nuovi sensori per la tutela della privacy