Esistono ancora enormi supercomputer. Ecco per cosa vengono utilizzati oggi

Negli anni ’90, la competizione per la creazione del supercomputer più veloce era particolarmente accesa, con nazioni come gli Stati Uniti e la Cina che si sfidavano per raggiungere questo obiettivo. Sebbene questa corsa si sia in parte placata, questi potenti computer continuano ad essere impiegati per affrontare alcune delle sfide più complesse del nostro tempo.

Con il progresso della Legge di Moore, un’osservazione che indica un raddoppio della potenza di calcolo circa ogni due anni, la complessità dei problemi che cerchiamo di risolvere aumenta parallelamente. I supercomputer, un tempo di dimensioni contenute, oggi possono occupare interi edifici, composti da innumerevoli rack di computer interconnessi.

Cosa definisce un computer come “super”?

Il termine “Supercomputer” evoca l’immagine di una macchina di dimensioni colossali, con una potenza di calcolo enormemente superiore a quella di un comune laptop. Tuttavia, questa percezione è solo una parte della verità. I supercomputer sono in realtà composti da migliaia di computer più piccoli, interconnessi per svolgere un’unica operazione complessa. Ciascun core di una CPU in un data center potrebbe essere meno potente di un computer desktop standard. È la combinazione di tutte queste unità che permette di raggiungere un’efficienza di calcolo così elevata. La gestione di una rete e di hardware specializzato per queste dimensioni è molto complessa e va ben oltre il semplice collegamento di rack alla rete, ma in sostanza il concetto è simile.

Non tutte le attività si prestano facilmente alla parallelizzazione, quindi l’uso di un supercomputer non è indicato per giocare con un elevato numero di frame al secondo. L’elaborazione parallela è particolarmente utile per velocizzare calcoli intensivi.

I supercomputer sono misurati in FLOPS, ovvero operazioni in virgola mobile al secondo, che indicano la velocità con cui eseguono operazioni matematiche. Il supercomputer più veloce al momento è Summit di IBM, capace di raggiungere oltre 200 PetaFLOPS, circa un milione di volte più veloce della velocità “Giga” a cui molti sono abituati.

Qual è quindi il loro scopo? Principalmente la scienza

I supercomputer costituiscono la base della scienza computazionale. Sono utilizzati in ambito medico per simulazioni di ripiegamento proteico nella ricerca oncologica, in fisica per simulazioni in grandi progetti ingegneristici e calcoli teorici e persino in finanza per monitorare i mercati azionari e ottenere vantaggi competitivi rispetto ad altri investitori.

Uno degli usi più utili per la persona comune è la modellazione meteorologica. Prevedere con accuratezza le condizioni atmosferiche per i giorni a venire è un compito sorprendentemente arduo, che neanche gli odierni supercomputer sono in grado di svolgere con assoluta precisione. Per effettuare una modellazione meteorologica completa, si stima sia necessario un computer con una velocità misurabile in ZettaFLOPS, ovvero due ordini di grandezza superiori ai PetaFLOPS, circa 5000 volte più veloce del supercomputer Summit di IBM. Questo traguardo difficilmente sarà raggiunto prima del 2030, poiché il principale ostacolo non è la tecnologia hardware, ma i costi.

L’investimento iniziale per l’acquisto o la costruzione dell’hardware necessario è considerevole, ma le spese maggiori sono quelle relative al consumo energetico. Molti supercomputer consumano milioni di dollari di elettricità ogni anno per rimanere operativi. Pertanto, sebbene in teoria non ci siano limiti al numero di edifici pieni di computer che si possono collegare insieme, si tende a costruire supercomputer di dimensioni tali da risolvere i problemi correnti.

Avrò quindi un supercomputer domestico in futuro?

In un certo senso, già ce l’hai. I computer desktop moderni hanno una potenza di calcolo paragonabile a quella dei supercomputer di qualche anno fa, e persino gli smartphone hanno prestazioni superiori al celebre Cray-1. È quindi facile fare confronti con il passato e speculare sul futuro. Ma questa evoluzione è principalmente dovuta all’aumento della velocità delle CPU, un processo che attualmente sta rallentando.

La Legge di Moore sta subendo un rallentamento a causa dei limiti fisici imposti dalla miniaturizzazione dei transistor, di conseguenza le CPU non diventano più veloci come in passato. Si stanno concentrando maggiormente sulla riduzione delle dimensioni e sull’efficienza energetica, spingendo le prestazioni delle CPU verso la direzione di un maggior numero di core per chip nei desktop e di una maggiore potenza nei dispositivi mobili.

È improbabile che le esigenze di elaborazione dell’utente medio superino le capacità offerte dalle tecnologie attuali. Non è certamente necessario un supercomputer per navigare in internet e la maggior parte delle persone non esegue simulazioni di ripiegamento proteico nel proprio scantinato. L’hardware consumer di fascia alta supera le esigenze quotidiane e solitamente è utilizzato per compiti più specifici come il rendering 3D e la compilazione di codice.

Quindi, la risposta è probabilmente no. I principali progressi si concentreranno sullo spazio mobile, poiché telefoni e tablet si avvicineranno alle prestazioni dei computer desktop, un risultato comunque notevole.

Crediti immagine: Shutterstock, Shutterstock