Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Dentro il data center più avanzato del Sud Italia: Caserta sfida il digitale

Dentro il data center più avanzato del Sud Italia: Caserta sfida il digitale

1 Aprile 2026 06:55
In sintesi

A Caserta, il data center Data Felix DF01 ottiene la qualifica ACN AI1 e le certificazioni ISO 27001, 27017 e 27018, garantendo continuità operativa e sicurezza informatica per la Pubblica Amministrazione. Con infrastrutture Tier III+, monitoraggio del dark web 24/7 e sistemi ridondanti, il centro riduce rischi di downtime e supporta aziende locali e enti pubblici, colmando il divario digitale tra Nord e Sud Italia. La vicinanza fisica diventa un vantaggio strategico per resilienza e latenza minima.

ISO 27001, adeguamento ACN AI1, monitoraggio dark web H24: a Caserta un’infrastruttura Tier III+ che abilita la Pubblica Amministrazione e sfida il paradosso digitale del Sud. Reportage realizzato da Carlo Denza, su invito di DataFelix. L’autore per RHC ha avuto accesso verificato alle sale server, ai locali tecnici e ai sistemi di controllo.

Esistono infrastrutture digitali che possono ospitare dati e servizi della Pubblica Amministrazione e infrastrutture che non possono. La distinzione non è commerciale: è normativa. Il Regolamento Cloud ACN (D.D. n. 21007/24) definisce quattro livelli di adeguamento delle infrastrutture digitali per la PA. Il livello 1 AI1 è il requisito minimo per trattare dati e servizi classificati come ordinari. DataFelix DF01, a Caserta, ha ottenuto questo adeguamento ed è pubblicato nel catalogo ufficiale ACN con ID IN-6428. Nel catalogo compare anche il servizio IaaS associato (ID IA-7163), con certificazioni ISO 27001, ISO 27017 e ISO 27018.

Per capire cosa c’è dentro quella scheda tecnica, siamo andati a Caserta.

Advertising

Siamo nella Caserta vanvitelliana, a pochi passi dall’ombra lunga della Reggia settecentesca. Nella zona industriale, dove la memoria borbonica lascia il posto ai capannoni, ci troviamo davanti a quello che a occhi profani sembrerebbe un anonimo opificio. All’interno, la burocrazia della sicurezza è rapida ma inflessibile: tablet, registrazione, badge. Mi accoglie Michele, sistemista di lungo corso, sarà lui il mio Virgilio tra i vari cerchi tecnologici della struttura.

Non c’è tempo per le chiacchiere: il CIO ci raggiungerà più tardi, il cuore dell’impianto ci aspetta. Il viaggio inizia dall’esterno. Come nella foresta amazzonica, dove la vita si stratifica in verticale e ogni fascia d’altezza ospita faune distinte, anche qui il percorso si sviluppa per cerchi concentrici: si parte dal più esterno e, a ogni livello, si scopre un ecosistema tecnologico diverso. Il guscio energetico prima: cabine di trasformazione in media tensione, serbatoi di stoccaggio, il ronzio sordo dei refrigeratori free-cooling. Poi, procedendo verso il centro, i livelli si fanno via via più densi e controllati.

Dalla Sala Controllo sbloccano le porte in sequenza, aprendo soltanto i varchi necessari per condurci alle White Room. Niente deviazioni, niente improvvisazioni: un protocollo di sicurezza fisica che farebbe la sua figura in un film di spionaggio.

“Per risolvere un’emergenza informatica a Milano dovevo affrontare nove ore di viaggio. Lì ho capito che il sistema andava migliorato.”

Nel cuore invisibile dell’economia digitale

Dietro ogni operazione online, e-mail, e-commerce, banking, si nasconde un ecosistema tecnologico trasparente all’utente finale. Le più recenti stime indicano che circa il 40% dei data center ha subito almeno un’interruzione grave causata da errore umano negli ultimi tre anni. Secondo l’Uptime Institute le cause più frequenti sono tanto semplici quanto devastanti: un cavo scollegato durante una manutenzione, una configurazione errata, un sistema di raffreddamento in avaria.

Foto Carlo Denza: Sistemisti nella White Room

In Italia, dove sono previsti investimenti per oltre 37 miliardi di euro nel settore, la questione è diventata strategica. Eppure, mentre i colossi americani concentrano le risorse al Nord, il Sud Italia rappresenta ancora la Cenerentola digitale della Penisola. In Campania è nato uno dei più moderni data center Tier III+ privati del Mezzogiorno. Si chiama Data Felix DF01, e ha sede a Caserta. Abbiamo avuto accesso alle sale server, ai locali tecnici, ai sistemi di controllo. Abbiamo parlato con Francesco Taurino, CIO e fondatore, con Giuseppe Esposito CEO e con i sistemisti e i responsabili.

Foto Carlo Denza: Francesco Taurino CIO e Giuseppe Esposito CEO di DataFelix DF01

Il Fondatore: dal paradosso campano alla visione d’impresa

Capital intensive, proprietà dell’immobile e distanza dal Vesuvio: così si costruisce resilienza.

Ho iniziato con Linux nel 1994, quando era ancora un territorio per pochi avanguardisti, e ho messo in funzione il mio primo cluster nel 2003”, ricorda Taurino. “Per anni ho curato le infrastrutture digitali per le imprese campane, scontrandomi sempre con lo stesso controsenso: siamo nella terza regione più popolata d’Italia, un centro industriale vitale, eppure eravamo costretti a cercare rifugio tecnologico in Toscana o in Lombardia.

Se un cliente aveva un guasto improvviso, un server da sostituire fisicamente o un intervento hardware urgente, significava guidare per cinque ore solo per arrivare a destinazione, intervenire, e guidarne altre cinque per tornare. Dieci ore di strada per venti minuti di lavoro.” In un settore dove ogni istante di downtime si traduce in migliaia di euro bruciati, la situazione era diventata insostenibile. Mentre il nome è nato quasi per caso, da un’intuizione di sua moglie: “Ero in difficoltà nella scelta del brand. Lei suggerì di unire il concetto di dato alla Campania Felix, la terra fertile amata dai Romani. Fu una folgorazione: Data Felix doveva essere esattamente questo, un terreno digitale fertile da cui far germogliare l’innovazione nel Mezzogiorno.” Il motto che accompagnò l’avvio del progetto era semplice: “la sala server a dieci minuti di auto.”

Il Progetto: capitali privati e scelte strategiche contro il rischio

Ho proposto l’idea di business al gruppo Union Energy, con cui collaboro da vent’anni. Abbiamo deciso di fare le cose seriamente: acquistato l’immobile, anziché prenderlo in affitto come fanno molti competitor. Questo ci garantisce stabilità a lungo termine e ci ha permesso di progettare l’edificio esattamente come serviva, senza vincoli architettonici esterni“, spiega il CIO.

Siamo posizionati a Caserta, nel cuore di 20 poli industriali e logistici, con una copertura potenziale di oltre 5 milioni di persone nel raggio di 50 km, ma fuori dalle zone rosse del Vesuvio e dei Campi Flegrei.” Verificata anche l’assenza di rischi idrogeologici: nessun corso d’acqua nelle vicinanze, nessun bacino di raccolta che possa causare allagamenti in caso di eventi estremi.

L’investimento ha incluso connettività ridondante con tre percorsi in fibra ottica geograficamente separati e la certificazione Carrier Neutral. La struttura ospita direttamente gli apparati di operatori come Fastweb, Wind e diversi operatori nazionali e locali, oltre al POP del MIX (Milan Internet Exchange). La latenza da Data Felix a Milano è di 10–12 millisecondi. Per un’azienda delle zone industriali limitrofe, collegata in fibra punto-punto dedicata direttamente al sito produttivo, si scende a 0,1 millisecondi.

Il Divario Infrastrutturale: quando il Nord domina e il Sud scopre le sue potenzialità

L’Italia dei data center è ancora un Paese diviso a metà. Milano concentra il 68% della potenza energetica nazionale installata, con 414 MW IT, secondo l’Osservatorio Data Center del Politecnico di Milano, e punta a superare il gigawatt entro il 2028. Il Mezzogiorno registra però crescite superiori alla media nazionale: +19% in Puglia, +12% in Campania. Le ragioni non sono solo congiunturali: il Sud è il primo produttore nazionale da fotovoltaico ed eolico, e per infrastrutture che consumano elettricità come i data center non è un dettaglio secondario.

Con una potenza di 1 MW espandibile a 2, Data Felix DF01 non punta a competere con i mega-campus da centinaia di megawatt. PMI locali, distretti industriali, pubbliche amministrazioni che hanno bisogno di latenza minima e di un tecnico che arrivi in trenta minuti, non in mezza giornata.”È il modello della regionalizzazione del dato“, spiega Taurino. “La vicinanza fisica diventa valore aggiunto tanto quanto la potenza computazionale.”

“oltre 600 kilowatt vanno ai rack, il resto al condizionamento, servizi generali come illuminazione, videosorveglianza, sistema antincendio e uffici. Un rack mediamente pieno assorbe 3 kilowatt, ma possiamo superare i 6. Con 600 kW potremmo alimentare 200 rack, ma la prima White Room ne ospita 100: siamo larghissimi.” L’infrastruttura è stata dimensionata per sostenere densità fino a 20 kW per rack. La seconda sala, altri 250 metri quadri con altri 100 rack, è già in fase di allestimento.

Corrente, connettività e aria fresca non devono mancare mai, come anche la sicurezza

Infrastruttura e Resilienza: l’architettura elettrica di Data Felix

Il cuore tecnologico è un ecosistema a doppia ridondanza (2N) progettato per non fermarsi mai. Il principio è la Manutenibilità Concorrente: si interviene su qualunque componente senza toccare il servizio. Ridondanza totale, compartimentazione fisica e specifiche tecniche classificano la struttura Tier III+, con prestazioni che la avvicinano al Tier IV.

Lo standard TIA-942 definisce quattro livelli. Il Tier I tollera quasi ventinove ore di fermo all’anno, una soglia che molte aziende non accetterebbero neanche per il sistema di timbratura. Il Tier III scende a 1,6 ore. DataFelix, nell’ultimo anno e mezzo, non ci è arrivato vicino: ha mantenuto la continuità del Tier IV, 0,4 ore.

Alimentazione, trasformazione e backup

L’energia elettrica raggiunge la struttura tramite una corsia preferenziale dedicata a 20.000 V (Media Tensione), gestita in una cabina di ricezione ad uso esclusivo, non condivisa con utenze esterne. Dal quadro di media tensione, la potenza viene smistata su due trasformatori a secco in resina e indipendenti, che abbassano la tensione a 400 V trifase per due rami, A e B. Ciascun trasformatore è collocato in un box di cemento armato separato: compartimentazione fisica pensata per impedire che un guasto su un ramo si propaghi all’altro. Se un trasformatore va in avaria o viene messo in manutenzione, il ramo gemello regge da solo l’intero carico critico.

Guarda qui”, dice Michele indicando i due box in cemento armato. “Se uno va in avaria, l’altro non lo sa nemmeno.

Ogni ramo è protetto da UPS Schneider Electric da 500 kW e pacchi batterie da 150 kWh (48 batterie ciascuno, in due locali separati). L’autonomia è di 10 minuti a pieno carico: più che sufficienti, considerando che il gruppo elettrogeno di emergenza si avvia e va a regime in 30 secondi. Un secondo generatore è in fase di installazione. In caso di anomalia al pacco batterie, l’UPS può essere commutato in modalità bypass, alimentando direttamente i carichi dalla rete senza interruzione del servizio.

Distribuzione in sala e continuità operativa

Dagli UPS, l’energia raggiunge le sale server tramite blindosbarre trifase sospese a 400 V. Cassette di derivazione con interruttori magnetotermici monofase convertono la tensione a 220 V monofase e alimentano le PDU intelligenti dentro i rack, garantendo a ogni unità una doppia alimentazione A+B completamente indipendente. Se un ramo cade, l’alimentazione passa all’altro istantaneamente, senza interruzioni.

I rack che stanno qui dentro non se ne accorgono proprio. Se esplode un trasformatore, parte il gruppo elettrogeno, alimenta l’UPS che per 30 secondi usa le batterie, poi passa alla corrente del generatore. Tutto senza un singolo millisecondo di interruzione. È come avere tre paracadute: se non si apre il primo, c’è il secondo. Se non si apre il secondo, c’è il terzo.”

Il team ha sviluppato una dashboard di monitoraggio partendo da software open source: stato in tempo reale di UPS, batterie, generatori, temperature e carichi elettrici su un’unica interfaccia. Ogni mese vengono eseguiti test di commutazione completi. “È un’attività che facciamo in orari particolari, per non avere nessun tipo di rischio“, spiega il fondatore, “anche se il sistema è fatto per non avere interruzioni.

Cybersecurity e Certificazioni: dalla difesa perimetrale alla qualifica ACN

Per chi ospita i server di altre aziende, ransomware, DDoS e violazioni di dati non sono scenari ipotetici. Data Felix affronta il problema su tre fronti: la protezione interna dell’infrastruttura, i servizi su misura per i clienti e le certificazioni internazionali.

“Sulle nostre infrastrutture abbiamo analisi dei log continua, 24 ore su 24“, spiega Taurino. “Teniamo traccia di tutte le connessioni in uscita e in entrata. Se uno dei nostri server tenta di comunicare con IP riconosciuti come malevoli, command and control di botnet, server associati a ransomware, reti di distribuzione malware, scatta immediatamente un alert. Monitoriamo tutto: accessi anomali, pattern di traffico sospetti, tentativi di esfiltrazione dati. Il dark web lo teniamo sotto osservazione: sapere in anticipo se i tuoi indirizzi IP o le tue credenziali circolano in qualche forum underground vale quanto un buon firewall.”

Per i clienti in colocation l’approccio è diverso: “Noi forniamo indirizzi IP pubblici senza alcun filtro di base. Questa è una scelta deliberata: il cliente deve avere pieno controllo della propria sicurezza perimetrale. A richiesta, possiamo installare firewall virtuali, sia soluzioni open source che prodotti commerciali come Fortinet, WatchGuard, Sophos o altri vendor enterprise. Il cliente crea il proprio firewall virtuale e dietro costruisce la sua infrastruttura esattamente come se fosse on-premise, ma con i vantaggi di un data center Tier III+.”

Data Felix offre anche audit e scan di sicurezza, vulnerability assessment, penetration test e analisi delle configurazioni, sia per le infrastrutture ospitate in sede che per quelle on-premises presso le aziende clienti, attraverso partnership consolidate con system integrator verticalizzati sulla cybersecurity.

Foto Carlo Denza: Dettaglio del sistema di estinzione ad Argonite per la protezione delle sale server

Le certificazioni

Data Felix detiene la ISO 27001 per la gestione della sicurezza delle informazioni e la ISO 9001 per la qualità dei processi. La certificazione che fa però la differenza per chi opera in Italia è la qualifica ACN AI1, rilasciata dall’Agenzia per la Cybersicurezza Nazionale. “Esistono data center che possono lavorare con la Pubblica Amministrazione e data center che non possono”, chiarisce Taurino. “La qualifica ACN attesta che sono soddisfatti una serie di requisiti rigorosi sia dal punto di vista infrastrutturale che delle certificazioni del personale tecnico. Questo ci permette sia di ospitare server di aziende che lavorano con la PA, sia di offrire servizi cloud direttamente agli enti pubblici.

Francesco Taurino è inoltre Tier Designer Certificato dall’Uptime Institute e ha progettato Data Felix per andare oltre le specifiche del livello standard. “La certificazione formale Tier ha costi significativi che abbiamo preferito investire nell’ottimizzazione dell’infrastruttura fisica”, spiega. “Ma dal punto di vista progettuale superiamo già i requisiti. Quando arriverà il momento giusto, la certificazione sarà una formalità.

Abbiamo fondato con alcuni colleghi campani il NeaNOG (Neapolitan Network Operator Group) per creare una community di operatori e sistemisti, e stiamo lavorando a un’accademia per formare le nuove generazioni. Di tecnici qualificati c’è disperato bisogno, e noi vogliamo essere parte della soluzione.”

Gestione Termica: Quando Dissipare il Calore Significa Ottimizzare l’Energia

In un data center ogni kilowatt fornito ai server si trasforma in calore da smaltire. Il PUE, Power Usage Effectiveness, misura quanto costa questo smaltimento: un valore di 2 significa che per ogni kilowatt utile se ne brucia un altro in raffreddamento e servizi. “Noi siamo tra 1,3 e 1,4”, spiega il fondatore. “Per ogni kilowatt destinato ai server consumiamo solo 300-400 watt aggiuntivi. È un valore eccellente per una struttura di questa categoria.

Il sistema è un impianto idronico di nuova generazione: 25.000 litri d’acqua in circolo, due chiller in configurazione 1+1, unità CRAH Schneider nei corridoi tecnici, pavimento sopraelevato a 70 centimetri. Il risultato: anche con 45°C esterni, DataFelix mantiene 23°C costanti nelle sale server. “Abbiamo progettato l’impianto termico studiando un secolo di dati meteorologici. Un impianto sovradimensionato consuma inutilmente; uno sottodimensionato ti costringe a spegnere server nei giorni più caldi. Noi abbiamo trovato il punto di equilibrio.”

Modelli di Servizio: Colocation e Cloud per Esigenze Diverse

Quando la proprietà dei server fa la differenza tra housing puro e infrastruttura gestita.

Colocation: Il tuo Server, La nostra Infrastruttura. Il cliente porta i propri server fisici e li installa nei rack DataFelix. La proprietà resta dell’azienda: DataFelix non conosce le password, non ha accesso alle chiavi di crittografia, non entra nei dati.

“L’azienda finale è proprietaria delle macchine, dei server, dello storage, dei dischi”, chiarisce il fondatore. “Le compra, le installa nel nostro rack, e noi garantiamo tutto il resto: continuità dell’alimentazione tramite UPS e generatori, raffreddamento, connettività carrier neutral, sicurezza fisica con controllo accessi biometrico, protezione antincendio con Argonite. Tutto ciò che molte aziende hanno improvvisato, un UPS, un condizionatore ma senza la ridondanza di un Tier III+.

Foto Carlo Denza: Dettaglio della White Room: pavimentazione flottante da 70 cm e rack a doppia alimentazione ridondata

Virtual Private Cloud: Risorse Dedicate, Complessità Azzerata

Configuriamo uno spazio virtuale con risorse ben definite“, spiega Taurino. “Il cliente decide quanta CPU, RAM, storage gli serve, e noi gliele garantiamo in esclusiva. Windows Server per il gestionale, Linux per il CRM, database PostgreSQL o SQL Server, sistemi ERP: tutto ciò che prima girava su server fisici in azienda, ora gira nel nostro cloud.”

Il punto che differenzia DataFelix da AWS o Azure? La prevedibilità. Le risorse sono dedicate, non condivise. Lo storage è replicato con ridondanza personalizzabile e il backup è incluso in tutte le offerte. “Un backup che non si riesce a ripristinare non è un backup: è un’illusione di sicurezza.

Mentre lascio il Data Center, con la Reggia alle spalle ripenso alle cronache dei giorni appena trascorsi che raccontano un altro Sud: fondi europei per scuole e università che, secondo le accuse della Procura Europea, sarebbero finiti altrove. A Caserta, Francesco Taurino ha comprato l’immobile e tirato i cavi. Senza fondi pubblici. Due modi di stare nel Mezzogiorno.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Carlo Denza 150x150
Ha frequentato il corso di Informatica presso l’Università Federico II di Napoli, contribuendo allo sviluppo di applicazioni software in Java per il settore sanitario. Si dedica alla scrittura tecnica e alla divulgazione in ambito ICT e cybersecurity. Corrispondente per Red Hot Cyber, segue l’evoluzione dello scenario tecnologico nazionale e internazionale partecipando ai principali eventi di settore, raccontando le tendenze emergenti dell’innovazione digitale e della sicurezza informatica.
Aree di competenza: Storia dell'informatica, Awareness, Divulgazione, Inviato per Red Hot Cyber