Un rivoluzionario sistema per raffreddare i Data Center

 

I data center si sa, sono sempre più assetati e bollenti, tanto che i circa 3 milioni di data center americani consumano, oltre a miliardi di litri d’acqua, circa 70 miliardi di kilowattora, ovvero quasi il 2 percento del consumo totale di elettricità della nazione. E quasi la metà di questa energia viene utilizzata per alimentare sistemi di condizionamento, ventole, refrigeratori: insomma, per “estrarre” dalle macchine il calore prodotti e consentire così ai processori di lavorare alla temperatura ottimale.

Un costo enorme che Forced Physics, un’azienda di Scottsdale, in Arizona, promette di abbattere sino al 90% utilizzando un sistema passivo denominato JouleForce, brevettato dall’azienda, che utilizza l’aria ambiente, filtrata, e non refrigerata per allontanare il calore dai chip del computer. A febbraio, Forced Physics prevede di lanciare il suo primo test pilota in un sito presso una struttura commerciale a Chandler, in Arizona, di proprietà dei centri dati H5. Lì, un rack di 30 conduttori raffredderà le apparecchiature IT consumando 36 kilowatt, in quanto i sensori monitorano il flusso d’aria, la temperatura, l’utilizzo di energia e la pressione dell’aria. Le informazioni ricavate dal test di un anno verranno utilizzate per dimostrare le prestazioni ai potenziali clienti.

Le apparecchiature informatiche in un tipico centro dati funzionano a circa 15 megawatt, destinando 1 MW di tale potenza ai fan dei server. Ma un data center di questo tipo richiederebbe altri 7 MW (per un carico totale di 22 MW) per alimentare altre apparecchiature di raffreddamento, e avrebbe bisogno di 500 milioni di litri di acqua all’anno. In un momento in cui il traffico del data center dovrebbe raddoppiare ogni due anni, l’appetito dell’industria per l’elettricità e l’acqua potrebbe presto raggiungere livelli insostenibili.

Secondo David Binger, chief technology officer di Forced Physics, il conduttore dell’azienda può aiutare un tipico data center a eliminare la necessità di acqua o refrigeranti e ridurre il carico di 22 MW di 7,72 MW, che si traduce in una riduzione annuale di 67,6 milioni di kWh. Secondo Binger, quel centro dati potrebbe anche risparmiare un totale di 45 milioni di dollari l’anno in infrastrutture, costi operativi ed energetici con il nuovo sistema. “Stiamo risolvendo il problema che gli elettroni creano“, ha detto.

Nei data center di oggi, i circuiti stampati e altri componenti elettronici sono racchiusi in contenitori di metallo delle dimensioni di scatole per pizza. Quaranta scatole sono impilate verticalmente in rack. Fila dopo fila di questi scaffali, disposti l’uno accanto all’altro in corridoi stretti, riempiono gli edifici di un solo piano. Un’elaborata rete di ventilazione soffia aria fredda sulla parte anteriore dei rack. Piccole ventole sul retro di ogni scatola spingono l’aria fresca sopra l’elettronica, all’interno. Quindi, i ventilatori più grandi sul retro del rack aspirano l’aria riscaldata.

Il conduttore JouleForce è una scatola stretta che sembra possa contenere un paio di rose a gambo lungo. I circuiti stampati non sono alloggiati all’interno, ma sono attaccati all’esterno. Occorrono 40 conduttori, interamente in alluminio, per riempire un rack standard. Non ci sono piccoli fan del server, invece, quattro grandi ventole sul retro del rack aspirano l’aria ambientale attraverso i conduttori. I ventilatori sono le uniche parti mobili nel sistema e l’aria stessa non viene mai raffreddata. Per il data center medio, questi grandi fan richiedono solo 0,28 MW, una frazione del 1 MW che i fan del server generalmente utilizzano.

All’interno del conduttore, 3.000 alette di alluminio molto sottili sono allineate in due file che formano un V. La forma a V sposta l’aria facilmente e rapidamente fuori dalla parte posteriore. Come un ventilatore aspira l’aria attraverso un conduttore, una bassa pressione d’aria la attira nei microcanali tra le pinne. Le pinne lavorano come i denti in un pettine, orientando ordinatamente le molecole d’aria per puntare nella stessa direzione e sistemarle in colonne. Allo stesso tempo, il calore dell’elettronica collegata si trasferisce nelle alette di alluminio. Quando le molecole d’aria toccano le superfici delle pinne, raccolgono calore dal metallo, che li spinge ad accelerare la spinta.

Più l’aria è calda quando esce dal conduttore, meglio è. In dozzine di test di laboratorio con temperature dell’aria ambiente comprese tra 21 °C e 49 °C, l’aria in uscita dal conduttore JouleForce misurava circa 65 °C, che è 27° C più calda rispetto ai sistemi di raffreddamento tradizionali.

È molto efficiente“, afferma Richard Madzar, responsabile dei sistemi critici di H.F. Lenz Co., un’azienda che progetta i data center. Madzar, che non è affiliato con Forced Physics, ha visto dimostrazioni in laboratori in condizioni simulate. “Elimina le ventole del server e richiede meno energia di quella che altrimenti avrebbero consumato“, dice. Gli piace anche che il conduttore sia riutilizzabile, modulare e riciclabile.

Non è chiaro come i responsabili del data center risponderanno a questo nuovo approccio. I loro modelli di business si basano su tecnologie di raffreddamento che sono già ampiamente disponibili, afferma Madzar. Potrebbero aver sentito parlare di altri tipi di raffreddamento conduttivo che si basano su acqua o refrigeranti, ad esempio, ma questi sistemi sono principalmente utilizzati nei supercomputer e tendono ad essere più costosi delle tradizionali tecnologie di raffreddamento. Se il conduttore di JouleForce deve passare all’uso quotidiano, dovrà essere più ampiamente disponibile e a prezzi competitivi.

https://forcedphysics.com/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Menu