Parliamo di Data Center dato che di recente è morto Luiz André Barroso, considerato l'inventore dei Data Center moderni, che lavorando per Google, nei primi anni duemila ha gettato le basi per il Cloud Computing. Oggi questo approccio è alla base di tutto, web e applicazioni mobile che siano. Prima si faceva uso di poche macchine molto potenti e costose, oggi si preferisce la modularità, migliaia di server economici, di qualità media; nel complesso risulta essere un sistema più economico, efficiente ed ecosostenibile.
Per Data Center (o Centro di Elaborazione Dati) si intende la struttura fisica utilizzata all'interno di un'azienda, organizzazione, per coordinare, gestire, archiviare i dati e le risorse informatiche.
Quindi come abbiamo accennato, al giorno d'oggi la soluzione preferibile passa da quella fisica e centralizzata ad una virtuale, più distribuita. Senza entrare troppo nei dettagli, con tutti i componenti di un data center (compreso router, switch, firewall, sistemi di archiviazione, ecc) possiamo dire che i Data Center forniscono e costituiscono:
- intrastruttura di rete: per connettere il tutto, dai server ai vari servizi fino agli utenti finali
- infrastruttura di archiviazione: i dati ovviamente sono alla base di tutto (sicurezza e backup sono poi aspetti di fondamentale importanza)
- risorse di elaborazione: CPU, RAM, le risorse per la capacità di elaborazione necessaria per le applicazioni e servizi che vengono offerti
Secondo ANSI/TIA-942, standard normativo per l'infrastruttura di un data center, abbiamo:
- data center di livello 1 (TIER I): infrastruttura del sito di base, non offre ridondanza, capacità e protezione limitata
- data center di livello 2 (TIER II): infrastruttura del sito con componenti con capacità ridondante (i componenti sono ridondanti, il percorso di distribuzione della rete non lo è)
- data center di livello 3 (TIER III): infrastruttura del sito gestibile senza interruzione dei servizi, qui c'è ridondanza sia di componenti che di percorso di distribuzione, quindi se un qualsiasi componente viene rimosso il servizio riesce a funzionare ugualmente (magari non a pieno regime, ma funziona)
- data center di livello 4 (TIER IV): infrastruttura del sito tollerante ai guasti, il livello più elevato, che consente addirittura di eseguire una vera e propria manutenzione senza interrompere il servizio e qualsiasi guasto non sarebbe critico grazie ad un sistema di ridondanza studiato ad-hoc
Ovviamente a seconda delle esigenze, budget, tipologia di servizio che vogliamo, possiamo scegliere una soluzione piuttosto che l'altra.
Un'altra classificazione riguarda la tipologia:
- Data center aziendali: gestione e proprietà all'interno dell'azienda
- Data center di servizi gestiti: anziché acquistarle, l'azienda sceglie la strada del leasing e la gestione viene affidata a terze parti (es. provider di servizi gestiti)
- Data center in co-locazione: lo spazio esterno all'azienda viene preso in affitto dalla stessa (vantaggio di avere sistemi di raffreddamento, infrastruttura, sicurezza in co-locazione, quindi più efficiente)
- Data center su cloud: ad esempio Amazon Web Services (AWS), Microsoft (Azure) o IBM Cloud
Un'ultima considerazione, da punto-informatico.it: i Data Center consumano troppo! In particolare si prevede che entro il 2030 ci saranno problemi nel garantire un servizio in così rapida crescita, vista la tecnologia attuale. L'energia richiesta (considerata soprattutto una crescita futura, pensiamo anche solamente all'enorme diffusione dell'Intelligenza Artificiale) sarà in costante aumento, occorre una gestione ecologicamente più efficiente, vale a dire riciclare il calore disperso e puntare sulla creazione di nuova energia sostenibile.
La Conferenza delle Nazioni Unite sui cambiamenti climatici (COP26, ottobre/novembre 2021) ha stabilito obiettivi importanti per il medio-lungo termine (emissioni zero per il 2050, step intermedi -25% entro il 2025 e -50% entro il 2030). Chiaramente come detto, anche tutto il settore IT ha forte impatto sul clima e quindi, per quanto riguarda i Data Center, è necessario nel tempo seguire questa strada: risparmio energetico - efficienza energetica - energia rinnovabile.
Abbiamo visto che il Cloud consente uan gestione modulare nel complesso molto interessante e vantaggiosa, in termini di efficienza però possiamo ritenere superiore una soluzione centralizzata e magari questo potrà avvenire grazie all'informatica quantistica (in particolare, aumentando il numero di qubits memoria e prestazioni della macchina aumentano in modo non lineare ma esponenziale, vedi approfondimento, rendendo ovviamente molto più conveniente in questo caso la centralizzazione). Ipotesi finale, in un futuro remoto (se l'umanità ci sarà ancora 😄) si potrà avere un sistema decentralizzato, Cloud, di computer quantistici.