Capitolato Tecnico
Progetto X.Xx.X.Xx.
Infrastruttura per BIg data e Scientific COmputing
CODICE: PIR01_00011 INFRASTRUTTURA: IPCEI-HPC-BDA
CUP: I66C18000100006
Gara da effettuarsi tramite procedura aperta sopra soglia per la fornitura di server di calcolo scientifico con GPU e relativo switch Infiniband
Capitolato Tecnico
Codice CUP: I66C18000100006 CIG: 82562064B9
CODICE UNIVOCO DEL BENE | NOME BREVE |
PIR01_00011_138447 | XX-00-XXX-XXXX |
XXX00_00000_000000 | XX-00-XXX-XXXX |
Sommario
1. DEFINIZIONE DELLA FORNITURA 3
1.1 Oggetto della fornitura 3
1.2 Configurazione della fornitura 5
1.3 Definizioni 6
2. DESCRIZIONE DELLA FORNITURA 7
2.1 Requisiti generali delle apparecchiature – Conformità 7
2.2 Caratteristiche tecniche minime dei nodi di calcolo 8
2.2.1 Requisiti sui componenti dei nodi di calcolo 8
2.2.2 Requisiti sugli enclosure dei nodi di calcolo 10
2.2.3 Requisiti sull’alimentazione dei nodi di calcolo 12
2.2.4 Differenze e migliorie specifiche tra i nodi per il cluster 1 e i nodi per il cluster 2 12
2.3 Caratteristiche tecniche richieste per lo switch infiniband 13
3. DESCRIZIONE DEI SERVIZI CONNESSI 14
3.1 Servizio di consegna, installazione, configurazione, avvio operativo dei sistemi 14
3.1.1 Modalità di consegna, installazione, configurazione, avvio operativo dei sistemi 14
3.1.2 Installazione e configurazione: schema tecnico e accessori da fornire 15
3.1.3 Servizio di formazione on-site 19
3.2 Gestione in garanzia delle apparecchiature 19
4. FATTURAZIONE 21
1. DEFINIZIONE DELLA FORNITURA
1.1 Oggetto della fornitura
Il progetto IBiSCo (Infrastruttura per BIg data e Scientific Computing), codice PIR01_00011, è stato presentato al MIUR nell’ambito del PON Infrastrutture 2014-2020, in risposta all’Avviso n.424 del 28.02.2018, pubblicato sulla Gazzetta Ufficiale della Repubblica Italiana, serie generale, n.78 del 04.04.2018. Con DD n.461 del 14.03.2019 è stata approvata la graduatoria dell’Avviso, che vede il progetto PIR01_00011 utilmente collocato in graduatoria. Con successivo DD 891 del 09.005.2019 è stato emanato il Decreto di Concessione del finanziamento, accettato con atto d’obbligo sottoscritto il 17.06.2019.
Il presente Capitolato Tecnico disciplina gli aspetti tecnici della fornitura all’Istituto Nazionale di Fisica Nucleare, Sezione di Napoli, di attrezzature di calcolo per il progetto IBISCO.
L'oggetto della fornitura riguarda le apparecchiature ed i servizi connessi di seguito elencati e per i seguenti quantitativi:
Lotto Unico: 10 server di calcolo HPC con almeno 1 GPU, 1 switch Infiniband e relativi accessori, come di seguito specificato:
Tabella 1: Dettaglio dei componenti e dei corrispondenti nomi brevi come da progetto PON:
Componente a: | n.10 server di calcolo con GPU | NA-07-CAL-INFN |
Componente b: | n.1 switch Infiniband | NA-11-NET-INFN |
La corrispondenza tra “codice univoco del bene” e “nome breve del bene” ai fini Ministero, è la seguente:
Tabella 2:
Codice univoco del bene | Nome breve del bene |
PIR01_00011_138447 | NA-07-CAL-INFN |
PIR01_00011_140502 | NA-11-NET-INFN |
Ulteriori accessori da fornire ai fini dell’installazione, come cavi e dispositivi di alimentazione e configurazione, sono descritti nel paragrafo 3.1.2.
Per tutte le voci, è prevista la prestazione dei seguenti servizi connessi:
1. Servizio di “Consegna, installazione, configurazione ed avvio operativo dei sistemi” della fornitura, da erogarsi in conformità alle modalità indicate al paragrafo 3.1.1 del presente Capitolato Tecnico;
2. Servizio di “Formazione”, da erogarsi in conformità alle modalità indicate al paragrafo 3.1.4 del presente Capitolato Tecnico;
3. Servizio di “Gestione in garanzia delle apparecchiature”, da erogarsi in conformità alle modalità indicate al paragrafo 3.2 del presente Capitolato Tecnico.
Il Fornitore, assumendo verso l’Amministrazione il ruolo di “fornitore chiavi in mano”, dovrà garantire la completezza e l’omogeneità della fornitura stessa, indipendentemente dalla eterogeneità delle componenti delle apparecchiature base e delle Opzioni previste dalla fornitura.
La fornitura dovrà conformarsi ai requisiti di seguito indicati:
1. tutte le apparecchiature in configurazione base dovranno presentare caratteristiche tecniche minime non inferiori a quelle riportate nel par. 2.2 del presente Capitolato Tecnico;
2. tutte le apparecchiature in configurazione base e i componenti opzionali dovranno essere nuove di fabbrica, ed essere costruite utilizzando parti nuove;
3. ciascun sistema di elaborazione dovrà essere consegnato presso le sedi indicate ed avviato;
4. tutta la fornitura dovrà risultare conforme ai requisiti riportati nel presente Capitolato tecnico;
5. il Fornitore dovrà certificare e garantire l’interoperabilità di tutti i componenti che costituiscono la soluzione architetturale proposta;
6. per ciascuna apparecchiatura dovrà essere fornita una copia digitale della manualistica tecnica completa, edita dal produttore; la documentazione dovrà essere in lingua italiana oppure, se non prevista, in lingua inglese.
1.2 Configurazione della fornitura
I 10 nodi di calcolo ed il relativo switch Infiniband, fanno parte della infrastruttura HPC del progetto IBISCO, che vede la partecipazione, nella sede di Napoli, anche del CNR e di UNINA; questi ultimi due enti acquisiscono in proprio altre attrezzature analoghe a quelle oggetto della presente gara.
Nella figura 1 è rappresentato il modello di calcolo perseguito, che vede la realizzazione di due distinti cluster:
• Cluster n.1 contiene nodi di calcolo sia del CNR sia di UNINA sia dell’INFN (4 nodi della presente gara)
• Cluster n.2 contiene solo attrezzature dell’INFN oggetto della presente gara (6 nodi di calcolo e lo switch Infiniband).
Figura 1: il modello di calcolo, con i due cluster separati ma interconnessi
CLUSTER n.1
• 21 Nodi CNR
• 7 Nodi UNINA
• 4 nodi INFN (presente gara)
Switch Ethernet
fibra
CLUSTER n.2
• 6 nodi (presente gara)
rame
rame
fibra
Switch Infiniband
Switch Infiniband
(presente gara)
Switch Ethernet
Non è richiesto che i nodi di calcolo da inserire nei due cluster siano identici, ed i punteggi tecnici favoriscono infatti in modo diverso i nodi del cluster 1 (ad esempio, più GPU) ed i nodi del cluster 2 (ad esempio, più core).
Le apparecchiature andranno installate nel Data Center SCoPE/RECAS, nel complesso di Xxxxx X. Xxxxxx, di cui l’immagine di figura 2 sotto rappresenta una vista d’insieme.
Figura 2: il Data Center SCoPE nel quale andrà effettuata la fornitura e l’installazione
Il Data Center è dotato di 33 armadi rack, come nella figura 3; i rack in cui andranno effettuate le installazioni sono nelle ultime 4 file verso destra; i rack in cui andranno effettuate le installazioni sono ad oggi occupati, ma saranno liberati ed ammodernati, e la numerazione esatta dei rack sarà comunicate al momento dell’ordine.
Figura 3: La posizione dei rack nel Data Center SCoPE
1.3 Definizioni
Nel corpo del presente Capitolato Tecnico, con il termine: “Fornitore” si intende l’Impresa Fornitrice aggiudicataria;
“Amministrazione” si intende il Consiglio Nazionale delle Ricerche, quale Stazione Appaltante;
“Apparecchiatura” si intende l’apparecchiatura, comprensiva di tutte le componenti della configurazione base e delle eventuali opzioni accessorie;
“Componente/i” si intende il componente o l’insieme dei componenti costituenti la configurazione delle apparecchiature del presente capitolato;
“Servizio/i connessi” si intende il servizio o l’insieme dei servizi connessi e accessori alla fornitura delle Apparecchiature in oggetto, compresi nel prezzo della fornitura ed analiticamente descritti nel capitolo 3 del presente Capitolato Tecnico;
“Data ordine” si intende la data di stipula del contratto tra Fornitore e Amministrazione;
“Data di accettazione dell’apparecchiatura” si intende la data del verbale relativo all’esito positivo della verifica di conformità relativa alle/a apparecchiature/a, emesso dall’Amministrazione;
“Orario lavorativo” si intendono le ore comprese tra le 8:30 e le 17:30 dal lunedì al venerdì.
2. DESCRIZIONE DELLA FORNITURA
L’Amministrazione potrà utilizzare le apparecchiature previste nella fornitura, disciplinata nei contenuti tecnici dal presente Capitolato Tecnico, per progetti basati su:
• Piattaforme basate su sistemi operativi Open Source, in particolare CentOS;
• Piattaforme di virtualizzazione.
2.1 Requisiti generali delle apparecchiature – Conformità
Tutte le apparecchiature fornite devono essere munite dei marchi di certificazione riconosciuti da tutti i paesi dell’Unione Europea e devono essere conformi alle norme relative alla compatibilità elettromagnetica.
Il Fornitore dovrà garantire la conformità delle apparecchiature alle normative CEI o ad altre disposizioni internazionali riconosciute e, in generale, alle vigenti norme legislative, regolamentari e tecniche disciplinanti i componenti e le modalità di impiego delle apparecchiature medesime ai fini della sicurezza degli utilizzatori.
A titolo esemplificativo e non esaustivo, le apparecchiature fornite dovranno rispettare:
• i requisiti stabiliti nel D.Lgs. n. 81/2008;
• i requisiti di ergonomia stabiliti nella Direttiva CEE 90/270 recepita dalla legislazione italiana con Legge 19 febbraio 1992, n. 142;
• i requisiti di sicurezza (es. IMQ) e di emissione elettromagnetica (es. FCC) certificati da Enti riconosciuti
a livello europeo;
• i requisiti stabiliti dal D.Lgs 18 maggio 2016 n.80 relativamente alla Compatibilità Elettromagnetica (EMC) e conseguentemente essere marcate e certificate CE;
• i requisiti di immunità definiti dalla EN55024;
• i requisiti relativi alla restrizione all’uso di sostanze pericolose previsto dalla normativa vigente, ed in particolare dalla direttiva 2011/65/UE, (RoHS II), recepita con D.Lgs. 4 marzo 2014, n. 27 e s.m.i.;
• i requisiti di conformità secondo quanto previsto dal D. Lgs. 14 marzo 2014, n. 49, dal D. Lgs 152/2006 e ss. m.i., dal D.M. 8 marzo 2010, n. 65, per quanto concerne i rifiuti di apparecchiature elettriche ed elettroniche, RAEE.
2.2 Caratteristiche tecniche minime dei nodi di calcolo
Nel presente paragrafo sono descritte le caratteristiche tecniche minime cui devono necessariamente rispondere tutti i 10 server (componente a in tab. 1), pena l’esclusione dalla gara.
Le apparecchiature di questo tipo sono server dotati di GPU che saranno utilizzati per applicazioni HTC e HPC, in particolare utilizzando in parallelo tutti i nodi attraverso la connessione Infiniband, a bassa latenza, dei nodi stessi. Le tre tipologie di applicazioni per questi nodi sono:
a) applicazioni con utilizzo delle GPU su singolo nodo;
b) applicazioni che girano simultaneamente su più nodi e utilizzano OpenMPI su rete Infiniband, utilizzando le CPU di ogni nodo;
c) applicazioni simili al tipo b), ma che utilizzano sia le CPU sia, simultaneamente, le GPU di ogni nodo, con alto parallelismo.
Il sistema operativo utilizzato sarà CentOS.
2.2.1 Requisiti sui componenti dei nodi di calcolo
Tutti nodi dei due cluster, tranne dove indicato esplicitamente, dovranno rispettare le seguenti specifiche:
a) essere realizzati su una architettura di sistema a 64 bit, con CPU in tecnologia x86;
b) Le CPU dovranno supportare la tecnologia hyper o multi threading;
c) Le GPU, con 32 GB, in doppia precisione devono fornire supporto nativo CUDA
d) per ogni sottoinsieme (cluster 1 e cluster 2 in figura 1) tutte le unità di sistema oggetto della presente gara devono essere fornite con identiche caratteristiche hardware, versioni di firmware e di BIOS;
e) solo per il cluster 1, i nodi devono avere l’interconnessione delle GPU ad alta velocità (NVLink);
f) deve essere possibile disabilitare o inibire eventuali allarmi sonori;
g) tutti i componenti dell'unità di sistema devono rispettare le specifiche approvate dai rispettivi costruttori (per esempio, non è consentito overclocking delle CPU);
h) le funzionalità delle unità di sistema definibili via settaggi NVRAM (per esempio ordine di boot,
configurazione BIOS, etc.) devono essere mantenute anche in caso di accidentale perdita di alimentazione elettrica;
i) i canali di memoria dovranno essere popolati in maniera bilanciata ed in base alle indicazioni fornite sia dal produttore del processore, sia dal produttore della scheda madre al fine di ottenere le prestazioni ottimali; non è permesso combinare moduli di memoria con differente dimensione, tipo, velocità o fabbricante;
j) i moduli di memoria devono essere approvati dal costruttore della scheda madre specificamente per l'utilizzo sulla scheda madre fornita;
k) i moduli di memoria devono riportare il loro numero di serie nei campi DMI; si ribadisce che non è permesso combinare moduli di memoria con differente dimensione, tipo, velocità o fabbricante;
l) la scheda madre deve fornire almeno 2 porte di tipo SAS, SATA o NVMe. Nel caso di porte SAS o SATA, la versione dello standard supportato deve essere almeno 2. Nel caso di porte NVMe, il tipo di connettore deve essere di tipo SFF-8639;
m) tutti i sistemi devono fornire la piena funzionalità richiesta da questo Capitolato Tecnico con la versione a 64 bit di CentOS (aggiornamento 7.6 o successivo). I sistemi non devono contenere componenti o dispositivi che richiedano driver non compatibili con tale sistema operativo; non sono richieste licenze per il sistema operativo. Tutti i sistemi devono essere in grado di fare il boot della versione a 64 bit di CentOS, senza connessione a tastiera, video, mouse o console seriale;
n) I server devono avere dimensione 1U o 2U, in termini di unità di rack. Dimensioni maggiori non sono accettate;
o) Presenza di un sistema di diagnostica che rilevi gli eventi di pre-failure relativi alle componenti disco, memoria RAM, alimentatori, ventole. Gli strumenti di diagnostica devono essere di tipo hardware e firmware e indipendenti dal sistema operativo;
p) i cavi interni non devono essere punzonati, danneggiati, o in tensione meccanica;
q) Il potenziale prestazionale in F.P.R., al punto 05 della tabella, deve essere dichiarato già all’atto della presentazione dell’offerta e dovrà essere pronto ad un’eventuale richiesta di validazione. Rientra tra le facoltà dell’Amministrazione di effettuare qualsiasi ulteriore verifica ritenuta opportuna nell’ambito delle attività di verifica e controllo delle apparecchiature.
Caratteristiche tecniche di ogni nodo | Quantità minime | |
01 | Numero minimo di CPU. La CPU deve essere identica a quella utilizzata per il benchmark prestazionale di cui al punto 5 della presente tabella. | 2 CPU |
02 | Numero minimo di core fisici per CPU. | 20 core/CPU |
03 | Frequenza del processore, escludendo meccanismi di burst, overclocking o similari. | 2,1 GHz |
04 | Dimensione della cache L3 per ciascuna CPU | 20 B |
05 | Potenziale prestazionale sulla configurazione con CPU installate in tutti i socket previsti nel benchmark di riferimento: CPU2017 Floating Point Rates (F.P.R.), valore “base result” | F.P.R. 170 |
06 | Quantità di memoria RAM fisica installabile | 1.024 GByte |
07 | Quantità di memoria RAM fisica installata | 384 GByte |
08 | Tale memoria dovrà essere almeno di tipo DDR4-2933 ECC REG DIMM in banchi di dimensione minima indicata | 32 GB |
10 | Numero e dimensione dei dischi interni SSD per il sistema operativo | 2 dischi da 0,48 TB SSD |
11 | Numero e dimensione dei dischi dati magnetici o SSD | 1 disco da 2 TB |
12 | Numero di porte di rete compatibili con Network Gigabit- Ethernet full-duplex (in rame) | 1 porta 1GbE rame |
13 | Numero di porte rete indicate compatibili con Standard LP 2-port 10 GbE con connettore SFP+, e relativa ottica Short Range | 2 porte 10GbE ottiche |
14 | Numero di porte rete indicate compatibili con Standard Infiniband 100Gb EDR. | 2 porte Infiniband |
15 | Sistema minimo di management e gestione remota e d’allarme. | IPMI v2.0 o altro protocollo equivalente, con NIC dedicata |
16 | Numero di porte USB 3. | 2 USB |
17 | Prestazione della GPU, con 32 GB, in doppia precisione | 7 Teraflops |
18 | Numero minimo di GPU da fornire per ogni nodo | 1 GPU |
21 | Upgrade del firmware. | Esistenza di strumenti software per l’upgrade, senza costi aggiuntivi, per la durata minima di 5 anni. |
23 | Numero e potenza degli alimentatori ridondati | n.2 da 2.000 watt (e comunque proporzionato alle esigenze dei componenti offerti) |
2.2.2 Requisiti sugli enclosure dei nodi di calcolo
Tutte le apparecchiature di calcolo dovranno soddisfare le seguenti specifiche:
a) gli enclosure devono essere approvati dal costruttore per l'uso con il tipo, dimensione e numero di unità di sistema proposte;
b) essere dotate di ventole ridondate e di tipo hot-swap, capaci di garantire i fabbisogni di dissipazione del calore del server in condizioni di massima espansione;
c) unità di sistema ed enclosure devono essere progettati in modo tale che in caso di necessità di rimozione o intervento su un'unità di sistema non venga coinvolta nessun'altra unità di sistema;
d) le guide e tutti gli accessori necessari per il montaggio e l'installazione a rack fanno parte della fornitura;
e) almeno un connettore per una console standard KVM deve essere fornito sull'enclosure, in modo da garantire la possibilità di collegarsi ad ogni unità di sistema in esso contenuto;
f) devono essere forniti cavi di rete di lunghezza da determinarsi prima del montaggio delle macchine nei rack (ove non sia prevista una soluzione integrata). Il numero, la tipologia della presa di alimentazione e la lunghezza di tutti i cavi dipende dal tipo di soluzione tecnica presentata e non può pertanto essere specificato rigidamente prima dell'aggiudicazione della gara;
g) per le schede di rete in fibra, si richiede anche la fornitura dei cavi in fibra e i relativi transceiver SFP+ da installare sulle schede di rete a 10 GbE, nella misura di un cavo per ogni porta SFP+;
h) il sistema di raffreddamento deve essere dimensionato in modo che l'enclosure e tutti i componenti in esso installati vengano mantenuti ad una temperatura compatibile con quanto specificato per il funzionamento del sistema, assumendo un’installazione in un rack pienamente popolato e con una temperatura dell'aria in ingresso compresa tra 15 e 35 gradi centigradi ed un’umidità ambientale relativa (senza condensa) compresa tra 20% e 70%. L'aria calda può essere espulsa solamente attraverso la parte posteriore dell'enclosure;
i) gli enclosure devono essere compatibili per il montaggio nei rack 19” esistenti, e qui sotto illustrati; le dimensioni sono:
• Larghezza: 600 mm
• Altezze (U rack): 2000 mm (42)
• Profondità: 1000 mm
Figura 4: Caratteristiche e misure dei rack in cui effettuare l’installazione
2.2.3 Requisiti sull’alimentazione dei nodi di calcolo
Tutte le apparecchiature dovranno rispettare i seguenti requisiti:
a) tutte le apparecchiature dovranno essere fornite di un interruttore on/off di alimentazione;
b) tutte le apparecchiature dovranno essere dotate di stadio di alimentazione ridondata in modalità 1+1, di tipo hot swap e dimensionato al fine di garantire i fabbisogni di potenza del server in condizioni di massima espansione; la caduta di un alimentatore non deve determinare alcuna variazione delle prestazioni e/o della potenza di calcolo generata dai nodi contenuti nello chassis;
c) la ridondanza deve essere tale che il fallimento di un numero minore od uguale alla metà degli alimentatori presenti su un enclosure non pregiudichi il funzionamento di nessuna delle unità di sistema installate sullo stesso enclosure, anche quando queste sono utilizzate a consumo elettrico massimo;
d) gli alimentatori devono supportare i requisiti specificati dal costruttore della scheda madre e quelli specificati per tutti i componenti interni all'enclosure;
e) gli alimentatori devono essere in grado di supportare l'installazione di tutti i dischi supportati dall'enclosure;
f) gli alimentatori devono essere dotati di compensazione di fattore di potenza [cos(ϕ) ] secondo lo standard IEC 61000. Per un sistema a pieno carico, è richiesto un fattore di potenza di 0.9 o superiore;
g) tutte le apparecchiature dovranno essere fornite di opportuni cavi di alimentazione in quantità sufficiente a garantire l’alimentazione di tutti gli alimentatori presenti. Per la tipologia dei cavi di alimentazione, si fa riferimento al paragrafo 3.1.2.
2.2.4 Differenze e migliorie specifiche tra i nodi per il cluster 1 e i nodi per il cluster 2
Come già indicato nel par. 1.2, non è richiesto che i nodi da inserire nei due cluster siano identici ed i punteggi tecnici (riportati in dettaglio nel Disciplinare Tecnico) favoriscono infatti in modo diverso i nodi del cluster 1 (ad esempio, più GPU) ed i nodi del cluster 2 (ad esempio, più core).
La differenza nei due tipi di nodi è schematizzata nella figura 5, con riferimento alle migliorie che vengono valutate in sede di valutazione tecnica, come quantificato nel Disciplinare Tecnico.
I nodi del cluster 1 devono avere l’interconnessione delle GPU ad alta velocità (NVLink), cosa non richiesta e non necessaria per i nodi del cluster 2.
Il rapporto tra la memoria RAM e il numero di core fisici offerti deve sempre rispettare:
• almeno 4 GB/core nei 4 nodi del cluster 1
• almeno 6 GB/core nei 6 nodi del cluster 2
per cui offrendo più core si dovrà incrementare la memoria. Il minimo di memoria è comunque fissato a 384 GB per nodo, sia per il cluster 1 sia per il cluster 2.
Sarà inoltre oggetto di valutazione da parte della Commissione. Giudicatrice la fornitura di un software di
gestione dei cluster, operante sotto CentOS vers. 7 o superiore.
Figura 5: I due tipi di nodi, per il cluster 1 e per il cluster 2, con le specifiche delle migliorie possibili
2.3 Caratteristiche tecniche richieste per lo switch infiniband
# | Caratteristiche tecniche switch Infiniband | |
1 | Tecnologia Switch di collegamento | Infiniband |
2 | Numero minimo di porte dello switch di collegamento | 36 porte |
3 | Velocita minima delle porte dello switch di collegamento | EDR IB 100Gb/sec |
4 | Altezza nel rack | 1U |
5 | Interfacce delle porte | QSFP28 |
6 | Alimentazione | ridondata |
7 | Tipologia cavi | DAC Passivi |
8 | Led di stato | Su ogni porta |
9 | Ventole Hot Swap | ridondate |
10 | Capacità di switching | 7 Tbit/sec |
11 | Completi di sistema operativo | SI |
12 | Capacità di management dello chassis | SI |
13 | Air Flow | Power-to-Connect |
È richiesto inoltre un cavo in fibra da 10 metri, con relative ottiche, per connessione di questo switch ad altro analogo.
3. DESCRIZIONE DEI SERVIZI CONNESSI
3.1 Servizio di consegna, installazione, configurazione, avvio operativo dei sistemi
3.1.1 Modalità di consegna, installazione, configurazione, avvio operativo dei sistemi
Tutti i sistemi oggetto della presente gara devono essere consegnati, resi operativi e validati a completo carico dell'operatore economico, sotto il coordinamento di personale tecnico dell’INFN e in modo da soddisfare tutte le specifiche del presente Capitolato Tecnico.
La consegna delle apparecchiature dovrà avvenire nei seguenti termini:
• entro e non oltre 45 (quarantacinque) giorni dalla data di stipula del contratto;
• presso la Sezione INFN di Napoli: presso Dipartimento di Fisica, Xxxxxxxxx Xxxxx X. Xxxxxx, edificio 6 (magazzino), via Cintia, 80126 Napoli (Xxx.xx xx.xxx Xxxxxxxxxx Xxxxx).
Al magazzino si accede con camion in quanto è a livello della strada; i pacchi vanno scaricati e portati al magazzino su portapacchi.
Tali attività sono comprensive di ogni onere relativo ad imballaggio, trasporto, facchinaggio, consegna, posa in opera, installazione delle apparecchiature e delle opzioni, prima accensione e verifica della funzionalità delle apparecchiature, asporto dell’imballaggio e qualsiasi altra attività ad esse strumentali.
Prima della consegna, l'operatore economico deve prendere contatto con la sede oggetto della fornitura per concordare i dettagli logistici con i seguenti referenti:
o INFN-NA: dr.ssa Xxxxxxxxxx Xxxxx, xxxxxxxxxx.xxxxx@xx.xxxx.xx Dopo la consegna andrà effettuata l’installazione e la messa in esercizio.
L'operatore economico dovrà provvedere allo smaltimento completo del materiale di risulta (per esempio, gli imballaggi), a propria cura e spese, come onere compreso nel prezzo di fornitura, nel rispetto delle norme per una corretta raccolta differenziata.
In fase di installazione, tutte le apparecchiature dovranno essere alloggiate negli armadi rack dei Data Center, con la supervisione del personale tecnico dell’INFN, che dovrà essere presente.
Le apparecchiature acquisite dovranno essere rese funzionanti e consegnate unitamente alla manualistica tecnica d’uso (hardware e software) anche su supporto informatico e su di esse sarà effettuata la verifica di funzionalità, intesa come verifica dell'accensione e del funzionamento dell’apparecchiatura (completa di tutti i componenti sia base che opzionali).
Tutte le singole componenti (base ed opzionali) dovranno essere rese identificabili.
Per la consegna dovrà essere redatto dal Fornitore un apposito “verbale di consegna e installazione”, in contraddittorio con l’Amministrazione Contraente, sottoscritto dai referenti sopra citati e da un incaricato del Fornitore, nel quale dovrà essere dato atto dell’idoneità dei luoghi di sistemazione delle apparecchiature,
nonché dovranno essere riportate le seguenti informazioni:
• la data e il luogo dell’avvenuta consegna e installazione;
• la data Ordine ed il numero progressivo:
• un identificativo unico di installazione (assegnato dal Fornitore).
La sottoscrizione del verbale da parte dell’incaricato del Fornitore e dell’incaricato dell’Amministrazione, concluderà le attività di “Consegna e Installazione”, permettendo l’avvio della successiva fase di “Configurazione ed Avvio Operativo”.
3.1.2 Installazione e configurazione: schema tecnico e accessori da fornire
L'operatore economico deve provvedere all'installazione e configurazione delle apparecchiature della presente fornitura, tenendo presente quanto già specificato nel par. 1.2. In particolare, la figura 1 del par. 1.2, che è una figura concettuale, viene qui di seguito esplosa nella figura 6, che rappresenta sulla destra come le apparecchiature del presente appalto vanno installate in due rack (indicati come “E” ed “F”), nella penultima fila di rack a destra nello schema del Data Center in figura 3.
Le attrezzature sulla sinistra della figura 6 sono invece parte di separati appalti del CNR e di UNINA, e sono qui rappresentate solo per l’esigenza di interconnessione rappresentata esplicitamente nella figura 6, cioè 4 linee in fibra con terminazioni QSFP28 dai 4 nodi della presente fornitura allo switch Infiniband esistente (linee azzurre), e 1 linea in fibra con terminazioni QSFP28 (con le opportune ottiche) tra i due switch Infiniband, quello della presente fornitura e quello esistente (linea rossa). Le installazioni e configurazioni delle apparecchiature CNR ed UNINA non fanno parte della presente gara.
Switch management | ||||
Patch panel ottico | ||||
Nodo con GPU | ||||
Nodo con GPU | ||||
Nodo con GPU | ||||
Nodo con GPU | ||||
Nodo con GPU | ||||
Nodo con GPU | ||||
Switch Infiniband | ||||
Figura 6: Il posizionamento delle apparecchiature della presente fornitura in due rack del Data Center
Switch management Patch panel ottico
Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU
Nodo con GPU
Switch management SW Chassis 10GbE Patch panel ottico
Patch panel aggregatore Nodo con GPU Nodo con GPU
Nodo con GPU
Nodo storage Nodo storage Nodo storage
Nodo storage (master del cluster)
Switch Infiniband
Attrezzature CNR
Attrezzature INFN
Rack «A»
Switch management Patch panel ottico
Rack «B»
fibra
Switch management
Patch panel ottico
fibra
Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU
Nodo con GPU
Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU Nodo con GPU
Nodo con GPU
fibra
Attrezzature CNR
Rack «E»
Rack «F»
Switch Infiniband
Rack «C»
Rack «D»
Nodo con GPU
Nodo con GPU
Nodo con GPU
Nodo con GPU
Patch panel ottico
Switch management
rame
Poiché, come detto nel par. 1.2, le apparecchiature della presente fornitura sono suddivise su due cluster, si
ritiene opportuno schematizzare nelle figure 7 e 8 rispettivamente il dettaglio delle connessioni, in fibra e rame, e delle ottiche e cavi necessari.
Figura 7: Dettagli e rappresentazione schematica delle connessioni dei 6 nodi del rack “F” (cluster 2)
Cavo UTP Cat.6 2 metri
Cavo UTP Cat.6 3 metri
Xxxx XXX00/XXX00
oppure IEC19/IEC20 1,5 metri
Ottica SFP+ SR
Ottica SFP+ SR
Cavo OM4 SFP+
LC/LC 2 metri
Cavo OM4 SFP+
LC/LC 3 metri
Xxxx XXX00/XXX00
oppure IEC19/IEC20 2 metri
Cavo DAC Infiniband QSFP28 3 metri
Cavo DAC Infiniband QSFP28 5 metri
Porta RJ45 mngmnt
Porta RJ45 a 1 GbE Porta RJ45 a 1 GbE
Porta SFP+10GbE
Porta SFP+10GbE
Porta QSFP28 IB a 100 Gb EDR
Porta QSFP28 IB a 100 Gb EDR
Nodo con GPU #01 … #06 (cluster 2)
Figura 8: Dettagli e rappresentazione schematica delle connessioni dei 4 nodi del rack “E” (cluster 1)
Cavo UTP Cat.6 2 metri
Cavo UTP Cat.6 3 metri
Xxxx XXX00/XXX00
oppure IEC19/IEC20 1,5 metri
Ottica SFP+ SR
Ottica SFP+ SR
Cavo OM4 SFP+
LC/LC 2 metri
Cavo OM4 SFP+
LC/LC 3 metri
Xxxx XXX00/XXX00
oppure IEC19/IEC20 2 metri
Cavo DAC Infiniband QSFP28 5 metri
Cavo OM4 Infiniband QSFP28 10 metri
Porta RJ45 mngmnt
Porta RJ45 a 1 GbE Porta RJ45 a 1 GbE
Porta SFP+10GbE
Porta SFP+10GbE
Porta QSFP28 IB a 100 Gb EDR
Porta QSFP28 IB a 100 Gb EDR
Nodo con GPU #07 … #10 (cluster 1)
La linea rossa della figura 6 rappresenta, come già detto, una connessione tra i due switch Infiniband, che va realizzata con n.2 cavi in fibra OM4 con ottiche QSFP28, lunghezza 10 metri.
Devono quindi essere forniti e messi in opera tutti i cavi necessari (sia in fibra sia in rame), tutte le ottiche necessarie, per le esigenze illustrate in precedenza. Per comodità, si riassumono in un solo schema (figura 9) le connessioni dei due cluster. Le connessioni ai due Centri Stella sono già esistenti.
Figura 9: Rappresentazione schematica delle connessioni dei nodi per i due cluster 1 e 2
Switch Infiniband da fornire
Switch Infiniband del CNR
Altri 21 nodi
del CNR
Cavi DAC in rame
Cavi IB in fibra
Altri 7 nodi UNINA
. . . . . . . . . . .
Cavi in fibra
Switch 10 GbE INFN esistente
Switch 10 GbE del CNR
Centro stella del Data Center ReCaS
Cavi UTP
Cavi UTP
Switch 1 Gb Ethernet in rame (management)
Cavi in fibra
Cavi in fibra
Centro stella del Data Center SCoPE
Nodo con GPU #10
da fornire
Nodo con GPU #07
da fornire
Nodo con GPU #06
da fornire
Nodo con GPU #02
da fornire
Nodo con GPU #01
da fornire
La figura n.9 rappresenta solo schematicamente le connessioni; è compito del Fornitore realizzare una interconnessione di tutti i sistemi a regola d’arte, implementando eventualmente altre connessioni rispetto a quelle qui rappresentate.
Nell’Offerta tecnica dovrà essere esplicitata tutta la consistenza, in termini di adattatori, ottiche, cavi etc.
I cavi di alimentazione delle apparecchiature da rack devono essere sempre tutti del tipo IEC/IEC M/F, per connettere tutte le apparecchiature fornite nel Data Center alle PDU già esistenti nei rack o da fornire in questo appalto.
Inoltre, per consentire la connessione elettrica di alimentazione da due presiere (PDU) distinte (dx e sx), dovranno essere fornite ed installate n.4 PDU del tipo RITTAL PSM 7856.204 a 4+2 prese ciascuna (vedi prime due foto sotto) in particolare 4 prese sono C19 e 2 prese sono C13 (vedi foto sotto). Queste PDU si agganciano tra di loro con un meccanismo proprietario (vedi terza foto) all’alimentazione in canalina verticale interna ai rack (una per rack), quindi il modello non può essere sostituito con altro, se non perfettamente equivalente. Nella foto n. 3 della figura 8 qui sotto è rappresentato l’ingresso della corrente nella PDU, che si aggancia a scatto sulle barre laterali del rack RITTAL e da cui prende l’alimentazione. Questo aggancio deve essere assolutamente rispettato.
Figura 10: Dettagli delle PDU da fornire |
Tutti i cavi ed adattatori necessari per la suddetta configurazione sono parte della fornitura, anche se non esplicitamente indicati nei paragrafi precedenti.
È parte della fornitura la realizzazione di uno schema preciso di tutte le interconnessioni, e l’etichettatura di tutti i cavi, con esclusione delle apparecchiature CNR ed UNINA del cluster 1.
Al termine delle attività di configurazione ed avvio operativo di ciascuna apparecchiatura, deve essere
redatto dal Fornitore un apposito “verbale di configurazione e di avvio operativo”, sottoscritto da un incaricato dell’Amministrazione e da un incaricato del Fornitore, nel quale dovranno essere riportate le seguenti informazioni:
• l’identificativo della consegna;
• la descrizione delle operazioni e dei test effettuati;
• la descrizione degli eventuali problemi/malfunzionamenti riscontrati;
• la descrizione delle soluzioni adottate a fronte dei problemi/malfunzionamenti riscontrati.
Le attività legate alla configurazione, l’avvio operativo, la verifica delle funzionalità e la redazione del predetto verbale, dovranno concludersi entro 20 giorni solari a decorrere dalla data del corrispondente “verbale di consegna ed installazione”.
Entro n. 20 (venti) giorni solari dalla data del verbale di configurazione ed avvio operativo, l’Amministrazione provvederà all’invio della comunicazione di “pronti alla verifica di conformità” al Fornitore, per sottoporre le apparecchiature fornite a verifica di conformità con le caratteristiche tecniche e di funzionalità (intesa come verifica di non difformità in esecuzione di quanto indicato nella documentazione contrattuale, tecnica e manualistica d’uso), in contraddittorio con il Fornitore.
L’Amministrazione si riserva comunque la facoltà di procedere ad una verifica a campione sulle singole apparecchiature fornite.
3.1.3 Servizio di formazione on-site
È richiesta la presenza, per n.3 giornate, con date da concordare dopo l’aggiudicazione, di un tecnico esperto di cluster Infiniband, per un training on site dedicato alla configurazione, gestione e utilizzo del cluster oggetto della procedura. Questa formazione sarà rivolta ad un massimo di 12 persone, presso la sede dell’Istituto in Napoli.
3.2 Gestione in garanzia delle apparecchiature
Il Fornitore dovrà garantire il buon funzionamento delle apparecchiature oggetto della fornitura per la durata minima della garanzia legale a partire dalla data della verifica di funzionalità, con le modalità ed i livelli di servizio indicati nel seguito del paragrafo, provvedendo a intervenire presso la sede di installazione dell’apparecchiatura (modalità "on- site"), e ponendo in essere ogni attività necessaria per il funzionamento e per la risoluzione dei malfunzionamenti.
In sede di offerta, i concorrenti possono proporre una durata maggiore del servizio di gestione in garanzia, che sarà premiato con un punteggio tecnico come da Disciplinare di gara. Qualora il concorrente risulti aggiudicatario definitivo, la durata della gestione in garanzia delle apparecchiature dovrà essere garantita per la durata complessiva offerta.
Il servizio si intende comprensivo di tutte le parti, nonché di tutte le eventuali unità che dovessero essere impiegate,
quali sostituzioni, per la corretta erogazione del servizio stesso.
Il servizio dovrà essere garantito per tutte le apparecchiature e le componenti hardware offerte, e per il firmware delle apparecchiature.
Il Fornitore dovrà quindi fornire gli adeguamenti (patch) rilasciati dal produttore del software nelle versioni dei prodotti installati per tutta la durata del periodo di garanzia.
A seguito di un intervento di ripristino del malfunzionamento, l’eventuale reinstallazione del sistema operativo avverrà solo se quest’ultimo verrà messo a disposizione dall’Amministrazione al tecnico, al momento dell’intervento di ripristino del guasto relativo all’intervento.
L’acquisizione delle segnalazioni di intervento tecnico dovrà essere effettuato tramite un servizio di Call Center, e potrà essere richiesto anche mediante e- mail.
Il servizio di gestione in garanzia dovrà rispettare i livelli di servizio riguardanti:
L1 – tempestività dell’intervento
Parametro | Tempo di intervento |
Metrica | Unitaria |
NBD (Next Business Day) | |
Valore di soglia | |
Descrizione: Il tempo di risposta viene calcolato dal momento dell’apertura della chiamata al Call Center, al momento in cui il Tecnico adibito all’intervento si presenta presso l’utente stesso. Nel caso sia necessario un intervento la richiesta dovrà essere processata dal Fornitore che, verificata la disponibilità dei tecnici con skills adeguati nella zona competente e la disponibilità delle scorte per l’intervento richiesto attiverà l’intervento del Tecnico. L’orario di arrivo al sito di installazione dell’apparecchiatura e le generalità del Tecnico designato per l’intervento saranno comunicate telefonicamente all’utente. Alla fine dell’intervento, il Tecnico compila e firma il “Verbale di Intervento in garanzia”; tale rapporto è controfirmato e timbrato dalla Amministrazione contraente che ne tiene una copia, attestando così formalmente il lavoro eseguito. | |
Modalità di misura | |
L2 – tempestività di risoluzione dei problemi/malfunzionamenti hardware e firmware
Tempo impiegato per la risoluzione dell’inconveniente e la ripresa dell’operatività del server | |
Parametro | |
Metrica | Unitaria |
Valore di soglia | NBD (Next Business Day) |
Modalità di misura | Descrizione: Il tempo di risoluzione viene calcolato dal momento in cui il Tecnico |
adibito all’intervento si presenta presso l’utente a quello in cui il problema viene risolto. Alla fine dell’intervento, il Tecnico compila e firma il “Verbale di Intervento in garanzia”; tale rapporto è controfirmato e timbrato dall’Amministrazione che ne tiene una copia, attestando così formalmente il lavoro eseguito. |
Per ogni intervento in garanzia, ed al termine dello stesso, dovrà essere redatto dal Fornitore un apposito “verbale di intervento in garanzia”, sottoscritto da un incaricato dell’Amministrazione e da un incaricato del Fornitore, nel quale dovrà essere dato atto della tipologia di intervento, delle attività svolte e dei livelli di servizio ottenuti; dovranno essere riportate, fra le altre, le seguenti informazioni:
• la data e il luogo dell’avvenuto intervento;
• l’identificativo unico di installazione (assegnato dal Fornitore all’atto dell’installazione);
• un identificativo unico dell’intervento;
• un identificativo unico della chiamata (corrispondente a quello assegnato dal Call Center all’atto dell’apertura della richiesta di intervento) ed il corrispondente orario e data di apertura;
• il numero delle apparecchiature oggetto del servizio;
• il quantitativo (numero) e la tipologia delle apparecchiature e della componentistica consegnata ed installata, nonché l’elenco delle caratteristiche tecniche;
• una descrizione delle attività svolte durante l’intervento;
• in caso di sostituzione di componenti, gli identificativi (part number) delle componenti sostituite e di quelle di rimpiazzo;
• l’orario e la data di inizio dell’intervento;
• l’orario e la data di termine dell’intervento;
• l’orario e la data di ripristino dell’operatività delle apparecchiature.
La sottoscrizione del verbale da parte dell’incaricato del Fornitore e dell’incaricato dell’Amministrazione, concluderà le attività di “Intervento in garanzia”.
4. FATTURAZIONE
Si fa presente che le fatture dovranno essere emesse in accordo alle regole del PON, in numero di 2 fatture distinte, anche contemporanee, come qui di seguito indicato:
Codice univoco del bene | Nome breve del bene | Oggetto | |
1 | PIR01_00011_138447 | NA-07-CAL-INFN | n.10 Nodi di calcolo con GPU ed accessori |
2 | PIR01_00011_140502 | NA-11-NET-INFN | n.1 Switch Infiniband |
In fase di contratto con l’aggiudicatario, saranno concordate ulteriori modalità amministrative ai fini del rendiconto al Ministero dell’Università e Ricerca. Le fatture possono comunque essere emesse solo dopo la verifica di conformità prevista dal Codice dei contratti.
Il RUP
Xxxxxxxxx Xxxxxxx