Home Notizie recenti L’esperto di informatica discute la potenza di calcolo e l’innovazione

L’esperto di informatica discute la potenza di calcolo e l’innovazione

33
0

Credito: Pixabay/CC0 di dominio pubblico

La legge di Moore è la famosa previsione del co-fondatore di Intel Gordon Moore secondo cui il numero di transistor su un microchip raddoppierebbe ogni anno o due. Questa previsione è stata per lo più soddisfatta o superata dagli anni ’70: la potenza di calcolo raddoppia circa ogni due anni, mentre microchip migliori e più veloci diventano meno costosi.

Questa rapida crescita della potenza di calcolo ha alimentato l’innovazione per decenni, eppure all’inizio del 21° secolo i ricercatori hanno iniziato a suonare il campanello d’allarme che la legge di Moore stava rallentando. Con la tecnologia standard del silicio, ci sono limiti fisici a quanto piccoli transistor possono ottenere e quanti possono essere compressi su un microchip conveniente.

Neil Thompson, ricercatore del MIT presso il Computer Science and Artificial Intelligence Laboratory (CSAIL) e la Sloan School of Management, e il suo team di ricerca hanno deciso di quantificare l’importanza di computer più potenti per migliorare i risultati in tutta la società. In un nuovo documento di lavoro, hanno analizzato cinque aree in cui il calcolo è fondamentale, comprese le previsioni meteorologiche, l’esplorazione petrolifera e il ripiegamento delle proteine ​​(importante per la scoperta di farmaci). Il documento di lavoro è co-autore degli assistenti di ricerca Gabriel F. Manso e Shuning Ge.

Hanno scoperto che tra il 49 e il 94 percento dei miglioramenti in queste aree può essere spiegato dalla potenza di calcolo. Ad esempio, nelle previsioni meteorologiche, l’aumento della potenza del computer di un fattore 10 migliora le previsioni di tre giorni prima di un terzo di grado.

Ma il progresso dei computer sta rallentando, il che potrebbe avere impatti di vasta portata sull’economia e sulla società. Thompson ha parlato con MIT News di questa ricerca e delle implicazioni della fine della legge di Moore.

D: Come ti sei avvicinato a questa analisi e hai quantificato l’impatto che l’informatica ha avuto su diversi domini?

R: Quantificare l’impatto del calcolo sui risultati reali è complicato. Il modo più comune per considerare la potenza di calcolo e più in generale il progresso dell’IT è studiare quanto le aziende stanno spendendo su di essa e vedere come ciò si correla ai risultati. Ma la spesa è una misura difficile da usare perché riflette solo in parte il valore della potenza di calcolo acquistata. Ad esempio, il chip del computer di oggi può costare lo stesso importo di quello dell’anno scorso, ma è anche molto più potente. Gli economisti cercano di adeguarsi a quel cambiamento di qualità, ma è difficile capire esattamente quale dovrebbe essere quel numero. Per il nostro progetto, abbiamo misurato la potenza di calcolo in modo più diretto, ad esempio esaminando le capacità dei sistemi utilizzati quando il ripiegamento delle proteine ​​è stato eseguito per la prima volta utilizzando il deep learning. Osservando direttamente le capacità, siamo in grado di ottenere misurazioni più precise e quindi ottenere stime migliori di come la potenza di calcolo influenza le prestazioni.

D: In che modo computer più potenti consentono di migliorare le previsioni meteorologiche, l’esplorazione petrolifera e il ripiegamento delle proteine?

R: La risposta breve è che l’aumento della potenza di calcolo ha avuto un effetto enorme su queste aree. Con le previsioni del tempo, abbiamo scoperto che c’è stato un aumento di tre miliardi di volte nella quantità di potenza di calcolo utilizzata per questi modelli. Ciò mette in prospettiva quanta potenza di calcolo è aumentata e anche come l’abbiamo sfruttata. Questo non è qualcuno che prende un vecchio programma e lo mette su un computer più veloce; gli utenti devono invece riprogettare costantemente i propri algoritmi per sfruttare 10 o 100 volte più potenza del computer. C’è ancora molta ingegnosità umana che deve essere utilizzata per migliorare le prestazioni, ma ciò che i nostri risultati mostrano è che gran parte di tale ingegnosità è focalizzata su come sfruttare motori di elaborazione sempre più potenti.

L’esplorazione petrolifera è un caso interessante perché diventa più difficile nel tempo man mano che vengono perforati i pozzi facili, quindi ciò che rimane è più difficile. Le compagnie petrolifere combattono questa tendenza con alcuni dei più grandi supercomputer del mondo, utilizzandoli per interpretare i dati sismici e mappare la geologia del sottosuolo. Questo li aiuta a fare un lavoro migliore di perforazione esattamente nel posto giusto.

L’uso dell’informatica per migliorare il ripiegamento delle proteine ​​è stato un obiettivo di vecchia data perché è fondamentale per comprendere le forme tridimensionali di queste molecole, che a loro volta determinano il modo in cui interagiscono con altre molecole. Negli ultimi anni, i sistemi AlphaFold hanno compiuto notevoli progressi in questo settore. Ciò che la nostra analisi mostra è che questi miglioramenti sono ben previsti dai massicci aumenti della potenza di calcolo che utilizzano.

D: Quali sono state alcune delle maggiori sfide nel condurre questa analisi?

R: Quando si osservano due tendenze che stanno crescendo nel tempo, in questo caso prestazioni e potenza di calcolo, una delle sfide più importanti è dire quale sia la relazione tra loro è causalità e quale in realtà è solo correlazione. Possiamo rispondere a questa domanda, in parte, perché nelle aree che abbiamo studiato le aziende stanno investendo enormi quantità di denaro, quindi stanno facendo molti test. Nella modellazione meteorologica, ad esempio, non stanno solo spendendo decine di milioni di dollari per nuove macchine sperando che funzionino. Eseguono una valutazione e scoprono che l’esecuzione di un modello per il doppio del tempo migliora le prestazioni. Quindi acquistano un sistema sufficientemente potente per eseguire quel calcolo in un tempo più breve in modo da poterlo utilizzare operativamente. Questo ci dà molta fiducia. Ma ci sono anche altri modi in cui possiamo vedere la causalità. Ad esempio, vediamo che ci sono stati numerosi grandi salti nella potenza di calcolo utilizzata dalla NOAA (la National Oceanic and Atmospheric Administration) per le previsioni meteorologiche. E, quando hanno acquistato un computer più grande e lo hanno installato tutto in una volta, le prestazioni saltano davvero.

D: Questi progressi sarebbero stati possibili senza un aumento esponenziale della potenza di calcolo?

R: Questa è una domanda difficile perché ci sono molti input diversi: capitale umano, capitale tradizionale e anche potenza di calcolo. Tutti e tre stanno cambiando nel tempo. Si potrebbe dire che se si ha un aumento di trilioni di volte nella potenza di calcolo, sicuramente questo ha l’effetto maggiore. E questa è una buona intuizione, ma devi anche tenere conto dei rendimenti marginali decrescenti. Ad esempio, se si passa dal non avere un computer all’avere un computer, si tratta di un enorme cambiamento. Ma se passi dall’avere 100 computer ad averne 101, quello in più non fornisce lo stesso guadagno. Quindi ci sono due forze in competizione: grandi aumenti nell’informatica da un lato ma diminuzione dei vantaggi marginali dall’altro. La nostra ricerca mostra che, anche se abbiamo già tonnellate di potenza di calcolo, sta diventando più grande così velocemente che spiega molto del miglioramento delle prestazioni in queste aree.

D: Quali sono le implicazioni che derivano dal rallentamento della Legge di Moore?

R: Le implicazioni sono piuttosto preoccupanti. Man mano che l’informatica migliora, migliora la previsione del tempo e le altre aree che abbiamo studiato, ma migliora anche innumerevoli altre aree che non abbiamo misurato ma che sono comunque parti critiche della nostra economia e società. Se quel motore di miglioramento rallenta, significa che anche tutti quegli effetti collaterali rallentano.

Alcuni potrebbero non essere d’accordo, sostenendo che ci sono molti modi per innovare: se un percorso rallenta, altri lo compenseranno. A un certo livello è vero. Ad esempio, stiamo già assistendo a un crescente interesse per la progettazione di chip per computer specializzati come un modo per compensare la fine della legge di Moore. Ma il problema è l’entità di questi effetti. I vantaggi della legge di Moore sono stati così grandi che, in molte aree di applicazione, altre fonti di innovazione non saranno in grado di compensare.


Questa storia è stata ripubblicata per gentile concessione di MIT News (web.mit.edu/newsoffice/), un popolare sito che copre notizie sulla ricerca, l’innovazione e l’insegnamento del MIT.

Articolo precedenteContrastare la disinformazione sui colpi di COVID-19 per i bambini piccoli
Articolo successivoArrivare al cuore della funzione del muscolo cardiaco