CAPITOLATO TECNICO
Istituto Nazionale di Previdenza per i Dipendenti dell’Amministrazione Pubblica
PER LA FORNITURA DI UNA SOLUZIONE DI DEDUPLICA DEI DATI DA INTEGRARE ALL’INTERNO DELL’ATTUALE INFRASTRUTTURA DI BACKUP INPDAP E DEI CONNESSI SERVIZI DI INSTALLAZZIONE E INTEGRAZIONE NEL DATA CENTER
Indice
2. Il contesto di riferimento 4
2.1 Architettura generale del sistema informativo INPDAP 4
2.2 L’attuale infrastruttura di backup:panoramica generale 6
2.3 Configurazione e attuale utilizzo dell’infrastruttura di backup 8
2.4 Problematiche dell’infrastruttura di backup attuale 22
2.5 Criticità relative alle risorse hardware della tape library 23
4. Requisiti della soluzione di deduplica 25
5. Requisiti del servizio di installazione e configurazione 28
6. Requisiti del servizio di supporto e manutenzione 29
7. Requisiti del training formativo 29
9. Responsabili del contratto 31
10. Livelli di servizio e penali 31
A.1: Infrastruttura di backup 33
A.2: Caratteristiche degli switch che implementano la SAN 34
A.3: Tape Library IBM 3584/TS3500 35
A.4: Caratteristiche HBA del cluster TSM 36
A.5: Host sui quali è implementata la modalità lanfree backup 36
A.6: Path definiti dal server TSM verso la tapelibrary 39
1. Premessa
L'I.N.P.D.A.P. (Istituto Nazionale di Previdenza per i Dipendenti dell’Amministrazione Pubblica) intende integrare la propria attuale infrastruttura di backup e restore attraverso l’introduzione di una specifica soluzione tecnologica – la deduplica dei dati - che consenta, attraverso la riduzione dello spazio fisico utilizzato per l’esecuzione dei salvataggi dei dati, di poter meglio gestire nel tempo la continua crescita del volume dei dati da archiviare, sia nel breve, sia nel medio e lungo periodo.
La soluzione tecnologica richiesta con questo Capitolato di gara si dovrà affiancare integrare all’attuale infrastruttura presente nel Data Center INPDAP per consentire una più puntuale e regolare memorizzazione dei dati, sia a scopo di crash,sia di archiving (conservazione delle informazioni per lunghi periodi).
La ‘deduplica’ dei dati, in inglese ‘deduplication’, è da intendersi come un particolare algoritmo, abbinato a un’infrastruttura hardware (CPU, RAM, DISCHI, COLLEGAMENTI FISICI, DB), concepito per eliminare i dati ridondanti in un sistema di archiviazione e per ridurre la quantità di dati che deve essere archiviata come backup. Gli elementi dei dati ridondanti possono essere interi file oppure segmenti di dati secondari all’interno di un file. In ogni caso, l’obiettivo del processo di ‘deduplicazione’ è la riduzione degli spazi per il salvataggio attraverso la singola memorizzazione di dati duplicati, pur offrendo la possibilità di ricostituire su richiesta tutto il contenuto nella forma originale, con affidabilità totale alla velocità dei dischi. La rimozione dei dati ridondanti all’interno dei processi di backup consente di economizzare i requisiti di storage e di disaster recovery.
Con l’introduzione della soluzione di deduplica l’Istituto si attende di poter economizzare in maniera significativa le risorse di storage e di disaster recovery, riducendo il contenuto dei salvataggi in modo da permettere agli utenti di poter implementare politiche di conservazione dei dati più frequenti e per periodi più lunghi.
Le specifiche della soluzione richiesta sono riportate nel dettaglio nei successivi capitoli del documento.
Di seguito è riportato il significato di alcuni termini utilizzati nel seguito del documento:
Impresa | La ditta aggiudicataria della fornitura oggetto del presente Capitolato. |
Fornitura | Il complesso delle attività previste dal presente Capitolato. |
Istituto | INPDAP |
TSM | IBM Tivoli Storage Manager |
Unità di misura memoria di massa | 1 gibibyte = 1.024 MiB = 2^30 byte=1.073.741.824 bytes |
2. Il contesto di riferimento
2.1 ARCHITETTURA GENERALE DEL SISTEMA INFORMATIVO INPDAP
L’architettura hardware e software del sistema informativo INPDAP è stata disegnata per offrire un sempre più ricco portafoglio di servizi agli utenti INPDAP, soprattutto in modalità on-line, tramite WEB/Internet. In tal senso, il sistema informativo INPDAP prevede:
• L’adozione di prodotti/piattaforme aperte:
- Web e Application Server
- Sistema di Access & Identity management
- Servizi di Portale e Content Management
- Prodotti di System and Network Management
- RDBMS.
• un sottosistema di Storage (SAN) a garanzia della massima efficienza nell’accesso ai dati e della disponibilità e integrità delle informazioni;
• la separazione ai fini della sicurezza dell’area di accesso al sistema (Front-End) dall’area di produzione dei servizi (Back-End);
• la separazione logica/fisica dei sistemi in rapporto alle finalità di utilizzo (sviluppo, collaudo, formazione, pre-esercizio, esercizio).
Di seguito è riportato il disegno complessivo della infrastruttura tecnologica del sistema.
Fig. 1 – Disegno complessivo dell’architettura tecnologica
L’architettura tecnologica del Data Center INPDAP è stata progettata per rispondere ad elevati requisiti di bilanciamento dinamico del carico, continuità del servizio e sicurezza e integrità dei dati. L’architettura attuale prevede una separazione, sia per l’ambiente di esercizio che di supporto, nei sottosistemi seguenti:
• Web Server, configurati in bilanciamento di carico ove è implementata la componente di front-end, sia verso l’esterno (Internet) che verso la Intranet dell’Istituto;
• Application Server, anch’essi configurati in bilanciamento di carico e ospitano la componente dei servizi applicativi (istituzionali e di autogoverno);
• Data Base Server: che realizza la componente di accesso ai dati (configurato in cluster per garantire l’alta affidabilità);
• SAN: composta da switch, sottosistema dischi e tape library.
L’ambiente di backup e restore INPDAP è composto da una complessa architettura, integrata alla storage Area Network, le cui principali componenti sono: un server Tivoli Storage Manager; un’apposita rete di backup; una tape library con accesso in fibra; uno spazio disco a supporto sia per la memorizzazione dei metadati di backup, sia per la memorizzazione dei dati di backup veri
e propri. Nel paragrafo seguente è fornita una descrizione dettagliata dell’attuale infrastruttura di backup INPDAP.
2.2 L’ATTUALE INFRASTRUTTURA DI BACKUP:PANORAMICA GENERALE
Il sistema di backup/restore dell’INPDAP si basa su una infrastruttura IT composta da server di backup e tape library Total storage IBM3584/TS3500. Il sistema effettua i salvataggi dei dati critici in maniera tale da non impattare sulle attività di produzione svolte dai vari sistemi. Il software di gestione dei backup/restore è Tivoli Storage Manager versione 5.5 (in seguito TSM 5.5).
Le funzionalità svolte dell’infrastruttura possono essere suddivise in tre tipologie:
a) Salvataggi e ripristini a scopo di crash. In questo caso i periodi di conservazione delle informazioni sono relativamente brevi (attualmente massimo 1 anno);
b) Salvataggi a scopo di archivio. In questo caso le informazioni sono conservate per lunghi periodi. In genere il periodo di conservazione non è mai inferiore a 1 anno;
c) Funzione di ‘scarico’ dei file system di appoggio degli archivelog dei database di produzione. Questa funzionalità è necessaria per evitare un eccessivo consumo delle risorse di spazio disco.
Le operazioni dell’ultima funzionalità rendono ancor più necessaria e ‘delicata’ l’infrastruttura di salvataggio. Richiedono infatti un’elevata disponibilità nonché elevata efficienza dell’infrastruttura stessa. Il venire meno dell’infrastruttura di backup, anche per brevi periodi, comporta la mancata esecuzione della funzionalità di ‘scarico’ degli archivelog, con conseguente saturazione del relativo spazio disco. La mancanza di spazio disco destinato agli archivelog crea il ‘blocco’ dei database con relativo disservizio verso l’utenza.
I dati memorizzati su nastro attraverso tale sistema coprono gli ambienti IT INPDAP di supporto ai servizi di autogoverno, istituzionali, le funzioni specializzate e di servizio. Attualmente il numero di nodi (client di backup/restore) registrati sull’infrastruttura TSM è circa 450. Tale numero è in costante crescita a causa della messa in esercizio di nuovi nodi, sui quali vanno implementate nuove politiche di salvataggio. Per ogni nuovo nodo è necessario effettuare l’installazione, la configurazione (del software di backup), l’analisi e l’implementazione delle politiche di salvataggio; il tutto seguito dai test funzionali e di performance. Nell’agosto del 2009 la configurazione iniziale (risalente all’anno 2005) è stata modificata. Le modifiche hanno potenziato il cluster TSM attraverso l’aggiunta di memoria ram. Inoltre, è stato effettuato l’upgrade della tape library, attraverso il quale si sono sostituiti sia gli 8 drive LTO3 (con altrettanti LTO4) sia le frame da L52/D52 a L53/D53. Le figure 2 e 3 illustrano l’architettura dell’infrastruttura di backup all’interno
Tab. n. 1 – Tipologia e versioni firmware degli switch che implementano la SAN
Fig. 2 – Infrastruttura di backup
Fig. 3 - Collegamenti fisici dell’infrastruttura di backup
2.3 CONFIGURAZIONE E ATTUALE UTILIZZO DELL’INFRASTRUTTURA DI BACKUP
Il sistema di backup INPDAP prevede oggi un server centrale (cluster) e i relativi client TSM, installati su ogni partizione (Aix, Linux, Windows, VMware) che deve effettuare salvataggi e ripristini.
La funzionalità del server dei salvataggi (server TSM) è assicurata da una coppia di host dedicati, configurati in alta affidabilità (cluster TSM). Tali host, sui quali è presente il sistema operativo Windows 2003 server (32 bit), utilizzano sottosistemi storage (disco e nastro) per l’allocazione temporanea e il mantenimento definitivo dei dati salvati. Al fine di ottimizzare l’infrastruttura storage e per garantire soluzioni di backup efficienti è previsto che gli ambienti effettuino i salvataggi con modalità distinte a seconda della tipologia e della quantità dei dati. Le principali modalità utilizzate per effettuare i salvataggi sono due:
a) Backup e restore effettuate direttamente sulla libreria, utilizzando path dedicati tra i sistemi e i tape drive distinti da quelli utilizzati per l’accesso ai dischi. Tale modalità è denominata LANFREE BACKUP ed è utilizzata solo per un sottoinsieme di ambienti. Attualmente sono presenti circa 30 LANFREE BACKUP. La fig. 4 illustra tale funzionalità.
b) Backup e restore dai sistemi sulle risorse disco definite sul server dei salvataggi (CLUSTER TSM) utilizzando una LAN dedicata fisicamente distinta dalla LAN di produzione, sulla quale sono attestati quasi tutti gli altri ambienti che non effettuano backup via LANFREE (v. fig. 5).
Il server TSM è configurato in cluster (cluster windows) con due server TSM1 e TSM2 con dei collegamenti in alta affidabilità sia verso la tape library sia verso gli storage a disco. La figura n.6 illustra la configurazione del cluster.
Fig. 4 – Lanfree Backup
Fig. 5 – Lan Backup
Fig. 6 – Cluster TSM su Microsoft Windows 2003
Le strutture fisiche predisposte per memorizzare le informazioni sono conosciute come storagepool. Gli storagepool possono essere di due tipi: a disco e a nastro. Le figure successive (fig. n.7 e fig. n.8) mostrano degli esempi reali di storagepool definiti all’interno dell’infrastruttura di backup TSM dell’INPDAP.
Fig. 7 – Esempi di Storagepool
Fig. 8 – Storagepool che contengono i dati dell’ambiente Oracle DataBase
Allo scopo di avere una gestione ottimale dei salvataggi, nel corso del 2010 è stata effettuata una riorganizzazione degli storagepools. Da tale riorganizzazione è scaturita una classificazione che tiene conto dei seguenti aspetti:
1. Tempo di conservazione dei dati oggetto di backup;
2. Piattaforma dalla quale provengono i dati;
3. Tipologia dei dati (Produzione, Supporto).
Per quanto riguarda il tempo di conservazione, sono state individuate 3 diverse classi di salvataggi di dati:
a) Salvataggi con tempi di conservazione minori di 1 anno;
b) Salvataggi con tempi di conservazione da 1 a 10 anni;
c) Salvataggi con tempi di conservazione maggiori di 10 anni.
Per quanto riguarda i salvataggi con tempi di conservazione minori di 1 anno, sono state individuate ulteriori sottoclassi in riferimento alle piattaforme dalle quali provengono le informazioni. Più in particolare si ha:
- Piattaforma UNIX (AIX – Linux);
- Piattaforma WINDOWS;
- Piattaforma ORACLE;
- Piattaforma SAP;
- Piattaforma DB2_SQL;
- Piattaforma Jolly;
- Log managements.
Per tutte le classi di salvataggi individuate, è stata fatta la seguente distinzione:
- Dati provenienti da ambienti di produzione;
- Dati provenienti da ambienti di supporto.
Le figure 9a, 9b, 9c, 9d, 9e, 9f, 9g, mostrano una panoramica sull’attuale organizzazione degli storagepool dell’infrastruttura di backup TSM. Le figure mostrano come a partire da una classificazione logica dei salvataggi si arriva a definire i rispettivi contenitori fisici ovvero gli storagepool.
Fig. 9a – Classificazione dati e rispettivi contenitori fisici(retention>10 anni)
Fig. 9b – Classificazione dati e rispettivi contenitori fisici con (retention da 1 a 10 anni)
Fig. 9c – Classificazione dati e rispettivi contenitori fisici (retention<1 anno)
Fig. 9d – Classificazione dati e rispettivi contenitori fisici (retention<1 anno)
Fig. 9e – Classificazione dati e rispettivi contenitori fisici (retention<1 anno)
Fig. 9f – Classificazione dati e rispettivi contenitori fisici (retention<1 anno)
Fig. 9g – Classificazione dati e rispettivi contenitori fisici (retention<1 anno)
L’utilizzo attuale dell’infrastruttura di backup è riportato nella seguenti tabelle:
- Tabella relativa all’utilizzo giornaliero/settimanale (fig.10);
- Tabella relativa alla dimensione degli storagepools (fig. 11);
- Tabelle con le dimensioni suddivise per tipologia dei dati conservati (fig. 12,13,14);
- Tabella con i nodi che effettuano backup suddivisi per piattaforma (fig. 15);
- Utilizzo fisico (slot) della tape library IBM3584/TS3500 (fig. 16).
a) Tabella relativa all’utilizzo giornaliero/settimanale.
Fig. 10 - Utilizzo giornaliero dell’ambiente TSM suddiviso per piattaforma (luglio 2011)
La tabella della figura 10 illustra l’utilizzo giornaliero con relativo totale settimanale dell’infrastruttura, suddiviso per le varie piattaforme: AIX, IBM DB2, Linux, Oracle, SAP, Windows, ecc. Per le informazioni è stato preso in esame il volume di dati movimentati dalle varie piattaforme con le sole operazioni di Backup, Restore, Archive, Retrive. Nella reportistica non sono state considerate le movimentazioni di dati relativamente alle operazioni ‘amministrative’ quali ‘reclamation’, ‘migration’, ‘expiration’ duplice copia ecc. Tali operazioni che sono effettuate generalmente nelle ore diurne(il periodo notturno e dedicato alle effettive operazioni di salvataggio), sono necessarie per mantenere alti i livelli di efficienza dell’ambiente TSMe per recuperare spazio fisico sui supporti nastro onde evitare un consumo esponenziale di risorse.
Con le sole operazioni di duplice copia, che è effettuata solo per un numero limitato di ambienti(SAP, Oracle, Posta, Archiviazioni a lunga retention), la dimensione totale settimanale indicata nella figura n. 10 deve essere aumentata di circa 25/30 TB. Inoltre considerando le operazioni di ‘reclamation’ e ‘move data’ si arriva a movimentare un volume di circa 90/100TB di dati ogni settimana.
Dimensione informazioni conservate sull'infrastruttura di backup .
b) Tabella relativa alla dimensione degli storagepools.
Nome Pool di supporti utilizzato | XxxxXxX Xxx0000 | descrizione |
STG_1TO10A_DC_COPY | 4168 | Stgpool di copia per dati con retention da 1 a 10 anni |
STG_MAX1A_DB2_SQL_COPY | 223 | Stgpool di copia per DB2 e SQL con retentionmax 1 anno |
STG_MAX1A_JOLLY_COPY | 1070 | Stgpool di copia per DATI con retentionmax 1 anno |
STG_MAX1A_LOG_COPY | 8511 | Stgpool di copia per LOG con retentionmax 1 anno |
STG_MAX1A_ORA_P_COPY | 58989 | Stgpool di copia per ORACLE produzione con retentionmax 1 anno |
STG_MAX1A_POSTA_COPY | 4394 | Stgpool di copia per la posta |
STG_MAX1A_SAP_P_COPY | 65567 | Stgpool di copia per SAP produzione con retentionmax 1 anno |
STG_MAX1A_UNIX_ARCCOPY | 7867 | Stgpool di copia ARCHIVE UNIX retentionmax 1 anno |
STG_MAX1A_UNIX_P_COPY | 0 | Stgpool di copia per UNIX produzione con retentionmax 1 anno |
STG_MAX1A_UNIX_S_COPY | 0 | Stgpool di copia per UNIX supporto con retentionmax 1 anno |
STG_MAX1A_WIN_P_COPY | 47410 | Stgpool di copia per WINDOWS produzione con retentionmax 1 anno |
STG_MAX6M_ORA_P_COPY | 25759 | Stgpooldi COPIA PER I DUMP DI ORACLE |
STG_OVER10A_DC_BIS_COPY | 563 | Stgpool di copia per dati con retention oltre 10 anni CED Xxxxxxxxxxx |
XXX_XXXX00X_XX_XXXX | 00000 | Xxxxxxx di copia per dati con retention oltre 10 anni |
ORATBK | 1916 | vecchio stgpool utilizzato prima della riorganizzazione del 2010 |
SPTORA_SUPP | 55957 | Stg Pool Oracle di Supporto utilizzato prima della riorganizzazione. 2010 |
STGCHECKOUT | 157 | STGPool per nastri candidati al checkout |
STGWINLTO_PROD | 2030 | STGPool per ambiente Intel di Produzione |
STG_1TO10A_DC | 4046 | Stgpool per dati con retention da 1 a 10 anni con duplice copia |
STG_1TO10A_SC | 5386 | Stgpool per dati con retention da 1 a 10 anni con copia singola |
STG_MAX1A_DB2_SQL_DISCO | 0 | Stgpool a disco per DB2 e SQL con retentionmax 1 anno |
STG_MAX1A_DB2_SQL_NEXT | 227 | Stgpool secondario per DB2 e SQL con retentionmax 1 anno |
STG_MAX1A_JOLLY_DISCO | 0 | Stgpool a disco per DATI con retentionmax 1 anno |
STG_MAX1A_JOLLY_NEXT | 1024 | Stgpool secondario per DATI con retentionmax 1 anno |
STG_MAX1A_LOG | 8404 | Stgpool per salvataggio dei log |
STG_MAX1A_LOG_DISCO | 0 | Stgpool a disco per I log di produzione con retentionmax 1 anno |
STG_MAX1A_ORA_P | 58711 | Stgpool per ORACLE produzione con retentionmax 1 anno |
STG_MAX1A_ORA_S | 40349 | Stgpool per ORACLE supporto con retentionmax 1 anno |
STG_MAX1A_POSTA | 4517 | Stgpool per la posta |
STG_MAX1A_SAP_P | 65284 | Stgpool per SAP produzione con retentionmax 1 anno |
STG_MAX1A_SAP_S | 37989 | Stgpool per SAP supporto con retentionmax 1 anno |
STG_MAX1A_UNIX_ARC_DISCO | 9 | Stgpool disco ARCHIVE UNIX retentionmax 1 anno |
STG_MAX1A_UNIX_ARC_NEXT | 7730 | Stgpool secondario ARCHIVE UNIX retentionmax 1 anno |
STG_MAX1A_UNIX_P_DISCO | 0 | Stgpool a disco per UNIX produzione con retentionmax 1 anno |
STG_MAX1A_UNIX_P_NEXT | 8808 | Stgpool secondario per UNIX produzione con retentionmax 1 anno |
STG_MAX1A_UNIX_S_DISCO | 0 | Stgpool a disco per UNIX supporto con retentionmax 1 anno |
STG_MAX1A_UNIX_S_NEXT | 5459 | Stgpool secondario per UNIX supporto con retentionmax 1 anno |
STG_MAX1A_WIN_P_DISCO | 8 | Stgpool a disco per WINDOWS produzione con retentionmax 1 anno |
STG_MAX1A_WIN_P_NEXT | 47252 | Stgpool secondario per WINDOWS produzione con retentionmax 1 anno |
STG_MAX1A_WIN_S | 2453 | Stgpool per WINDOWS supporto con retentionmax 1 anno |
STG_MAX6M_ORA_P | 00000 | XXX PER I DUMP DEI DATABASE ORACLE |
STG_OVER10A_DC | 31194 | Stgpool per dati con retention oltre 10 anni con duplice copia |
STG_OVER10A_DC_BIS | 549 | Stgpool per dati con retention oltre 10 anniSede via Quintavalle |
STG_OVER10A_SC | 54827 | Stgpool per dati con retention oltre 10 anni con copia singola |
Totale GiB | 724.449 | |
Totale TiB | 707,47 | |
Totale PiB | 0,69 |
Fig. 11 - Dimensione informazioni conservate sull'infrastruttura di backup (luglio 2011)
La tabella della figura 11 mostra la dimensione di tutti i contenitori fisici dei dati (storagepools). In questo caso sono indicati gli storagepools creati sia prima che dopo la riorganizzazione dell’infrastruttura di backup, riorganizzazione effettuata nel 2010 e descritta nella prima parte di questo paragrafo.
c) Tabelle con le dimensioni suddivise per tipologia dei dati conservati
Luglio 2011 | ||
summary stgpool divisi per retention | ||
Periodo Retention | Dimensione in GiB | |
da 0 a 1 anno | 533433 | |
da 1 a 10 anni | 15787 | |
> 10 anni | 175229 | |
Totale | 724.449 |
Fig. 12 – Utilizzo strutture fisiche per periodo di conservazione
Luglio 2011 | ||
Stgpool prima e dopo la riorganizzazione del 2010 | ||
Periodo | Dimensione (GiB) | |
Vecchi stgpool | 60060 | |
Nuovi stgpool | 664.389 | |
Totale | 724.449 |
Fig. 13 - Utilizzo Stgpool prima e dopo la riorganizzazione
Luglio 2011 | ||
Stgpool primari e di copia | ||
Tipologia | Dimensione (GB) | |
Stgpool di copia | 254.744 | |
Stgpool primari | 469.705 | |
Totale | 724.449 |
Fig. 14 - Utilizzo Stgpool per tipologia
Le figure 12,13,14 indicano le dimensione degli storagepools relativamente alle varie tipologie di archiviazione.
d) Tabella con i nodi che effettuano backup suddivisi per piattaforma.
SUMMARY NODE PER PIATTAFORMA | |
NOME PIATTAFORMA | N. NODI |
AIX | 211 |
DB2 | 8 |
DOCAVE | 1 |
LINUX | 31 |
TDPFORMSEXCHG | 3 |
TDP FOR MSSQL | 1 |
TDP FOR ORACLE | 30 |
TDP FOR SAP | 17 |
WINDOWS | 201 |
ALTRO | 5 |
Totale | 508 |
Fig. 15 – Totale nodi per piattaforma per i quali è definita una politica di backup
a) Utilizzo fisico (slot) della tape library IBM 3584/TS3500.
Fig.16 – Utilizzo tape library
2.4 PROBLEMATICHE DELL’INFRASTRUTTURA DI BACKUP ATTUALE
Le problematiche dell’infrastruttura principale per il backup e l’archiviazione dei dati derivano tutte dalla costante crescita del volume di dati da salvare. La figura n. 17 illustra la crescita nel periodo 2005-2011 dello spazio allocato sulla SAN IBM presente in Istituto. Come si può notare, si è passati da un’allocazione di spazio disco iniziale di 12TB su un totale di 18TB del 2005, ad un’allocazione di circa 86TB su un totale di 90TB di luglio 2011. Tale spazio disco è utilizzato da applicazioni per le quali (quasi la totalità) sono implementate politiche di backup.
Alla crescita esponenziale dello spazio allocato, negli ultimi 5 anni si è accompagnata la conseguente crescita del volume dei dati per i quali è necessario implementare le relative politiche di backup. Attualmente sull’infrastruttura di backup sono conservati circa 700 TB di dati con periodi di ‘retention’ che vanno da 5 giorni ad oltre 10 anni (per i dettagli si veda il paragrafo precedente). Le frequenti esigenze di spazio disco, sono dovute, oltre che ad una crescita fisiologica delle banche dati, anche alla messa in produzione di nuovi ambienti applicativi (con relative banche dati) e alla migrazione e dismissione di altri ambienti, che prima erano in produzione su altre infrastrutture (ambiente SunSolaris /Sun E10k ADIC Scalar 100).
Come già accennato in precedenza, dal 2005 a oggi è stato effettuato un solo upgrade dell’infrastruttura di backup. Più precisamente nell’agosto del 2009 la configurazione iniziale è stata modificata attraverso un upgrade sia del cluster TSM (aggiunta di RAM), sia della tape library attraverso la sostituzione degli 8 drive LTO3 con altrettanti LTO4 e l’upgrade delle frame da L52/D52 a L53/D53. Nell’ultimo anno, il volume di dati da archiviare è ulteriormente aumentato andando a saturare le risorse elaborative di tutta l’infrastruttura di backup. Tale problematica ha reso necessario una sempre più capillare ottimizzazione delle risorse per permettere di fare fronte alla crescente richiesta di utilizzo dell’infrastruttura. Purtroppo la costante ottimizzazione delle risorse hardware disponibili non è più sufficiente. Per fare fronte alle attuali richieste di d’implementazione delle politiche di backup è necessario procedere ad un upgrade delle risorse tenendo presenti nuove tecnologie di salvataggio che permettano di ottimizzare lo spazio fisico di destinazione delle informazioni.
Fig. 17 - Allocazione spazio disco alla Storage Area Network (luglio 2011)
2.5 CRITICITÀ RELATIVE ALLE RISORSE HARDWARE DELLA TAPE LIBRARY
Per quanto riguarda la tape library le principali criticità da evidenziare e risolvere sono due:
a) Le risorse hardware, in particolare i drive della tape library, risultano insufficienti per soddisfare le richieste concomitanti di salvataggio. La problematica deriva dall’elevato numero di nodi per i quali sono definite politiche di backup. Anche se tale problematica è stata attenuata attraverso una riorganizzazione rivolta ad un’ottimizzazione capillare dell’infrastruttura (introduzione di spazio disco a supporto delle operazioni di salvataggio e ripristino), il numero di drive risulta essere ancora insufficiente.
b) Numero di slot (contenitori fisici dei supporti nastro) all’interno della tape library ormai satura. La capienza della tape library attualmente è al 95% (si veda la figura n. 16).
Le due criticità appena descritte generano una serie di problematiche tra cui l’impossibilità di eseguire alcune operazioni e di soddisfare alcune richieste fra cui:
1) Richiesta da parte del gruppo gestione database di raddoppiare i salvataggi relativi alle banche dati di produzione passando da una a due esecuzioni di backup ogni settimana. Attualmente la dimensione del salvataggio settimanale dell’ambiente Oracle ammonta a circa 15TB più 15TB per la duplice copia. Per assolvere alla richiesta di raddoppiare i salvataggi bisogna effettuare un salvataggio di dati per la dimensione di circa 30TB più 30TB per la duplice copia.
2) Duplice copia di tutti gli ambienti di produzione. Per il momento, la duplice copia dei dati è effettuata per i seguenti ambienti: Database di SAP, Database di Oracle, server di Posta, archiviazioni a lunga scadenza (da 1 a 10 anni ed oltre). Per il resto degli ambienti di produzione non è possibile effettuare la duplice copia. Questo aumenta la probabilità di perdita di dati in caso di rottura del supporto nastro dove i dati sono memorizzati in unica copia.
3) Impossibilità di avere una replica completa sul sito remoto, per la mancanza della duplice copia di tutti i dati.
4) Rinnovo dei dati. Per quanto riguarda le informazioni salvate per lunghi periodi (supporti nastro presenti in libreria e/o conservarti presso sedi remote) sarebbe opportuno effettuare una verifica di accesso ai supporti attraverso la lettura e la riscrittura dei dati. Con le attuali risorse hardware, tali operazioni straordinarie (che impegnano risorse sia hardware che umane) non possono essere eseguite, infatti le attuali risorse, come detto in precedenza, non sono sufficienti neanche ad effettuare le normali operazioni di backup, ripristino e ottimizzazione.
3. Oggetto della fornitura
Per risolvere le criticità descritte nel precedente capitolo, l’INPDAP intende introdurre all’interno dell’attuale infrastruttura di backup una soluzione tecnologica di ‘deduplica’ dei dati oggetto di salvataggio che permetta di eliminare i dati ridondanti durante il processo di backup. Sul nuovo sistema di archiviazione fornito, informazioni identiche, anche se appartenenti a sistemi e ambienti diversi, dovranno essere presenti una sola volta offrendo la possibilità di ricostituire su richiesta tutto il contenuto nella forma originale e con affidabilità totale.
La soluzione fornita dovrà essere integrata con l’ambiente preesistente e dovrà essere in grado di risolvere le problematiche e le criticità indicate nel precedente capitolo.
Più in particolare si richiede di fornire:
1. Una soluzione tecnologica di deduplica dei dati, composta da hardware e software, che consenta di ridurre la quantità di dati sottoposti a salvataggio, attraverso la eliminazione di tutti i dati ridondanti elaborati dal preesistente sistema di archiviazione. La soluzione deve risolvere le criticità indicate nel precedente § 2 e rispettare i requisiti indicati nel successivo
§4.
2. Installazione, configurazione e integrazione con la preesistente infrastruttura di backup INPDAP delle componenti hardware e software fornite. Il servizio deve rispettare i requisiti indicati nel successivo § 5.
3. L’addestramento attraverso training formativo del personale INPDAP sull’uso e gestione della soluzione fornita. Il servizio deve rispettare i requisiti indicati nel successivo § 6.
4. Il supporto e la manutenzione in garanzia della soluzione per 24 mesi dalla data di suo collaudo con esito positivo. Il servizio deve rispettare i requisiti indicati nel successivo § 7.
I requisiti della fornitura sono specificati in dettaglio nel successivo capitolo.
4. Requisiti della soluzione di deduplica
La soluzione fornita dovrà rispettare i seguenti requisiti minimi:
1. La soluzione fornita deve essere completamente compatibile con l’ambiente di backup preesistente in INPDAP ovvero si deve potere interfacciare in maniera completa sia con il server TSM, sia con la Storage Area Network (switch Cisco MDS9509) già presenti in Istituto, garantendo l’integrità dei dati trattati.
2. Gli apparati della soluzione di deduplica devono essere collegati alla storage area network attraverso un minimo di due canali, scalabili di almeno altri due, in fibra con larghezza di banda da almeno 4 Gbps. La soluzione fornita deve essere completa di fibre per il collegamento alla storage area network.
3. La soluzione fornita deve essere collegata alla storage area network in alta affidabilità, ovvero il mal funzionamento di uno dei canali non deve pregiudicare il corretto trasferimento dei dati. In altri termini la soluzione dovrà poter presentare i tape drive virtuali attraverso tutti i canali in fibra disponibili, in modo da poter distribuire il carico dei backup e far si che ogni server (compreso il cluster TSM) che effettua lan-free backup deve poter accedere a tutte le risorse (sia in fase di backup che di restore) qualora uno dei canali subisse un ‘failure’.
4. La soluzione deve essere fornita con sistemi di ridondanza elettrica (almeno 2 alimentatori).
5. La soluzione fornita deve essere compatibile con i processi di lanfree backup (cioè in grado di ricevere/archiviare/ripristinare i dati direttamente dai/sui client di backup) che sono o possono essere implementati sull’infrastruttura di backup esistente.
6. La soluzione fornita deve essere compatibile con l’implementazione di funzionalità di replica remota verso siti di Disaster Recovery ed eventualmente di business continuità.
7. La messa in produzione della soluzione presso INPDAP deve avvenire con un minimo impatto, è consentito un disservizio al massimo di 3 ore complessive sulle operazioni di produzione. Inoltre non si dovranno avere impatti negativi sul funzionamento e le performance dell’infrastruttura preesistente.
8. L’hardware e il software della soluzione proposta devono essere contenuti in una ‘black box’ distinta dal resto dell’infrastruttura presente nel Data Center dell’Istituto. Tale box dovrà contenere sia i meccanismi di ‘deduplica’ sia la memoria di massa (dischi) da utilizzare per la memorizzazione dei dati.
9. Le componenti che costituiranno la soluzione fornita devono essere nuove di fabbrica, di ultima generazione ed esenti da difetti. L’hardware deve garantire nel corso di tutta la durata del contratto, attraverso il suo periodico aggiornamento ed eventuale sostituzione, la funzionalità del software installato e la sua utilizzabilità, senza degrado dei tempi di utilizzo e della qualità e quantità delle funzionalità installate.
10. Le prestazioni complessive di I/O della soluzione non dovranno essere inferiori a 1000 MB/sec.
11. La soluzione deve permettere di memorizzare almeno 600 TiB di dati non deduplicati. Inoltre lo spazio utile per i dati deduplicati non dovrà essere inferiore a 80 TiB (Spazio utilizzabile al netto delle configurazioni RAID).1
12. La soluzione fornita deve essere scalabile per consentire l’utilizzare di almeno il doppio dello spazio disco della configurazione iniziale ovvero almeno 160 TiB di spazio disco destinato alla memorizzazione di dati deduplicati (spazio disco utilizzabile).
13. Il rapporto di deduplica, non deve essere inferiore a 1:7 ovvero per ogni 7 TiB di dati non deduplicati da archiviare, deve essere consumata una quantità di spazio minore o uguale a 1TiB.
14. La soluzione fornita deve potersi configurare come una Tape Library virtuale, della stessa tipologia di quella presente nel CED principale (tape drive di tipo LTO). La Tape Library virtuale deve essere collegata al TSM pre-esistente e deve essere in grado di gestire richieste di salvataggi e ripristini da esso provenienti.
15. Possibilità di creare più Tape Library virtuali (minimo tre) con l’unica soluzione di deduplica fornita.
16. Il numero di drive che si potranno configurare deve essere di almeno 40 per ogni Tape Library virtuale definita.
17. Numero minimo di supporti virtuali (nastri virtuali) definibili per ogni Tape Library virtuale: 1.500.
18. Le Tape Library virtuali definite devono poter lavorare in concomitanza con la Tape Library (IBM TS3500) preesistente oltre che con altre Tape Library (virtuali e/o fisiche) che potranno essere introdotte.
19. Attraverso la soluzione fornita dovrà essere possibile:
a) trasferire dati tra le Tape Library virtuali definibili;
b) trasferire dati tra le Tape Library fisiche e le Tape Library virtuali definibili. Per esempio trasferimento di dati tra la preesistente Tape Library IBM TS3500 e le Tape virtuali che si potranno definire (da TS3500 verso VTL_definita e viceversa). Il trasferimento dei dati tra le varie Tape Library, deve poter avvenire attraverso l’utilizzo dell’infrastruttura di backup esistente (TSM).
1Unita di misura della memoria: 1 gibibyte = 1.024 MiB = 2^30 byte=1.073.741.824 bytes
20. Per la soluzione fornita è richiesta la deduplica IN-LINE ovvero l’eliminazione dei dati ridondanti, deve avvenire durante la ricezione dai server di backup e non con un approccio post-elaborazione.
21. Gli array di dischi, presenti all’interno della soluzione di deduplica, dovranno essere configurati almeno in RAID5 o comunque in configurazione più conservativa.
22. La soluzione fornita deve essere provvista di appositi moduli di monitoraggio e reportistica attraverso i quali è possibile verificare lo spazio occupato, spazio libero, fattore di compressione/deduplica raggiunto, performance di I/O e performance in generale sull’intero ambiente.
23. La soluzione fornita deve essere provvista di appositi moduli software di gestione, attraverso i quali effettuare la gestione delle componenti hardware e software della soluzione stessa.
Le Imprese concorrenti all’appalto dovranno indicare nell’Offerta come la soluzione proposta risponde ai suddetti requisiti e indicare eventuali ulteriori requisiti aggiuntivi di cui dispone la soluzione proposta, motivandone il valore aggiunto per INPDAP, nello specifico contesto dell’Istituto descritto nei precedenti capitoli.
Nell’Offerta tecnica, le Imprese concorrenti dovranno anche indicare lo spazio fisico necessario ad ospitare quanto fornito, i requisiti di rete elettrica ed eventuali altri requisiti necessari all’installazione delle componenti hardware e software.
Per i dettagli sulle configurazioni hardware e software dell’attuale infrastruttura di backup si veda l’Appendice A.
5. Requisiti del servizio di installazione e configurazione
L’Impresa sarà tenuta a consegnare, installare e configurare presso il Data Center INPDAP di viale Ballarin n.42 in Roma tutte le componenti hardware e software che costituiranno la soluzione di ‘deduplica’ dei dati che verrà fornita. Per i servizi di configurazione si intende, oltre che la specifica configurazione della soluzione stessa, anche il collegamento fisico e logico di quanto fornito alla Storage Area Network e all’infrastruttura di backup INPDAP (Server Tivoli Storage Manager).
La installazione e configurazione di quanto fornito dovrà essere completata dall’Impresa entro 30 giorni solari dalla data di stipula del contratto, salvo diversi accordi tra le parti. Entro questa scadenza l’Impresa dovrà trasmettere a INPDAP il pronti al collaudo.
A collaudo concluso l’Impresa dovrà consegnare all’Istituto i titoli di licenza relativi a tutti i prodotti software oggetto della fornitura ed un’esplicita dichiarazione in cui sia evidente che l’Istituto è l’intestatario delle licenze stesse.
6. Requisiti del servizio di supporto e manutenzione
Tutte le componenti hardware e software della fornitura dovranno essere comprensive del servizio di manutenzione in garanzia per un periodo di 24 mesi a partire dalla data di superamento con esito positivo del collaudo di quanto fornito. Il servizio richiesto comprende tutte le attività necessarie al mantenimento in perfetta efficienza del software e dell’hardware forniti dall’Impresa e alla risoluzione di qualunque anomalia che, anche indirettamente, provochi l’interruzione o la non completa disponibilità di quanto fornito.
È da intendersi come parte integrante del servizio la disponibilità di tutte le patch/fix/service pack/nuove versioni firmware relative ai prodotti software e hardware offerti e che costituiscono la soluzione di ‘deduplica’.
Il servizio dovrà essere raggiungibile da INPDAP via telefono tramite un numero verde messo a disposizione dall’Impresa (attivo dalle ore 8 alle ore 20 di tutti i giorni feriali e pre-festivi), ovvero mandando un messaggio a una casella di posta elettronica dell’Impresa, sempre attiva. A tal fine, entro i successivi 10 giorni solari dalla data di stipula del contratto l’Impresa dovrà comunicare a INPDAP questi riferimenti.
Nell’Offerta tecnica, l’Impresa dovrà descrivere le modalità di svolgimento del servizio e i livelli di servizio offerti, eventualmente migliorativi rispetto a quelli indicati nel Capitolato.
7. Requisiti del training formativo
L’Impresa dovrà effettuare un servizio di addestramento attraverso un training formativo in grado di consentire al personale INPDAP preposto alla conduzione dell’infrastruttura di backup e storage di:
- acquisire le necessarie competenze per configurare autonomamente gli ambienti oggetto della fornitura;
- governare l’intero processo di gestione in piena autonomia utilizzando gli strumenti messi a disposizione dalla soluzione tecnologica fornita.
Il training dovrà essere del tipo “on the job”. Le modalità di questo training dovranno essere specificate dall’Impresa nell’Offerta Tecnica che, a tal fine, dovrà indicare:
a) risorse, per numero e qualifica / competenze, che effettueranno il training;
b) obiettivi del training (conoscenze da trasferire) e durata;
c) modalità di svolgimento;
d) eventuali metodologie e strumenti utilizzati;
e) modalità di verifica dell’avvenuto trasferimento delle conoscenze.
Il training sarà avviato su richiesta di INPDAP, entro 10 (dieci) giorni solari dalla richiesta. Il numero di persone che saranno oggetto del training non sarà complessivamente superiore a 5. Il training si dovrà concludere entro 60 giorni lavorativi dall’avvio. La conclusione positiva, con il trasferimento delle conoscenze previste, sarà attestata da apposito verbale congiunto dei Responsabili del contratto per INPDAP e per l’Impresa.
In caso di esito non soddisfacente per INPDAP, l’Impresa si impegna a ripianificare una estensione del periodo di training, concordandola con l’Istituto.
8. Collaudo
Il collaudo della soluzione fornita, una volta installata, configurata e collegata al sistema preesistente, verrà effettuato da una commissione nominata dall’Istituto e alla presenza dell’Impresa. L’Impresa dovrà assicurare alla commissione di collaudo il necessario supporto tecnico per lo svolgimento delle xxxxx.Xx documentazione che l’Impresa dovrà fornireall’Istituto prima dell’inizio del collaudo è la seguente:
- Manuali tecnici di riferimento relativi alla soluzione fornita;
- Documentazione della configurazione iniziale della soluzione fornita;
- Manuali e guide per la configurazione e la gestione della soluzione fornita;
- Piano di Collaudo contenente tutti i test che si dovranno effettuare per verificare il funzionamento generale e il rispetto dei requisiti minimi indicati nel capitolo 4; Il piano di collaudo dovrà essere visionato e approvato dalla commissione nominata dall’Istituto che potrà modificare e/o integrare tali test a suo insindacabile giudizio.
In caso di non superamento del collaudo, l’Impresa avrà a disposizione 15 giorni lavorativi per risolvere le eventuali anomalie e trasmettere un nuovo pronti al collaudo.
Al termine di ogni collaudo sarà redatto un apposito verbale sottoscritto dai componenti della commissione INPDAP e dai rappresentanti dell’impresa fornitrice presenti alle operazioni di collaudo.
Al superamento con esito positivo del collaudo della soluzione si avvierà il servizio di supporto e manutenzione di cui al § 6 e il training di cui al § 7.
9. Responsabili del contratto
L’Istituto e l’Impresa nomineranno, entro 10 (dieci) giorni solari dalla data di stipula del contratto un Responsabile delle attività, che costituirà l’unico riferimento per la trasmissione e ricezione della documentazione e delle comunicazioni che intercorrono tra le parti in esecuzione del contratto.
10. Livelli di servizio e penali
Di seguito sono riportati i livelli di servizio previsti per questo appalto e le relative penali in caso di mancato rispetto dei livelli di servizio.
Descrizione | Livelli di servizio | Unità di misura | Modalità di Verifica | Penale applicabile nel periodo contrattuale |
Consegna, installazione e configurazione delle componenti HW e SW oggetto della soluzione di deduplica | Pronti al collaudo entro 30 giorni lavorativi a partire dalla data di stipula del contratto | Numero di giorni di ritardo nel completamento dell’attività | Data trasmissione pronti al collaudo | 500,00 euro (cinquecento euro) per ogni giorno (o frazione) di ritardo rispetto alla scadenza pianificata |
Supporto e Manutenzione, Intervento a chiamata in caso di malfunzionamenti NON bloccanti | Risoluzione del malfunzionamento entro 24 ore lavorative dalla chiamata | Numero di ore di ritardo nel completamento dell’attività | Verbale di verifica | 100,00 (cento) euro per ogni ora (o frazione) di ritardo |
Supporto e Manutenzione, Intervento a chiamata in caso di malfunzionamenti bloccanti | Risoluzione del malfunzionamento entro 8 ore lavorative dalla chiamata | Numero di ore di ritardo nel completamento dell’attività | Verbale di verifica | 200,00 (duecento) euro per ogni ora (o frazione) di ritardo |
Training Formativo | Completamento del training entro 60 giorni solari dall’avvio | Numero di giorni di ritardo nel completamento dell’attività | Verbale di completamento | 100,00 (cento) euro per ogni girono (o frazione) di ritardo |
Gli importi delle penali saranno detratti dai corrispettivi delle fatture presentate dall’Impresa. A suo insindacabile giudizio l’Istituto, potrà avvalersi della cauzione senza bisogno di diffida o procedimento giudiziario. In caso di recupero delle somme dovute a titolo di penale sul deposito cauzionale, quest’ultimo deve essere immediatamente reintegrato, fino alla concorrenza della somma richiesta, pena la risoluzione di diritto del contratto.
A.1: Infrastruttura di backup
Appendice A
Componenti principali dell’infrastruttura di backup:
Collegamenti dell’infrastruttura di backup:
Cluster TSM su Microsoft Windows 2003:
A.2: Caratteristiche degli switch che implementano la SAN
Tipologia e versioni firmware degli switch che implementano la SAN:
A.3: Tape Library IBM 3584/TS3500
Caratteristiche principali tape library:
Nome | IBM 0000 |
X. Xxxxx | 8 |
Tipo Drive | LTO4 |
Size nastri Lto3/Lto4 | 400/800 MB - 800/1600 MB |
Num.part. Colleg. | 450 |
Slot Totali | 709 |
Software gestione | Tivoli S M 5.5 |
Caratteristiche drive e fibre channel:
Modello tape library:
Versione firmware dei drive della tape library:
A.4: Caratteristiche HBA del cluster TSM
HBA del cluster TSM:
CARATTERISTICHE HBA DEL CLUSTER TSM | |||||||
HOST | # HBA COLLEGATE ALLA TAPE LIBRARY | NOME HBA | MODEL | FIRMWARE | VER. BIOS | TAPE DRIVE COLLEGATI | |
TSM 1 | WINDOWS SERVER 2003 R2 SP2 EE | 2 | Qlogic Fibre Channel Adapter | QLA2340 | 3.03.25 | 1.47 | 8 |
TSM 2 | WINDOWS SERVER 2003 R2 SP2 EE | 2 | Qlogic Fibre Channel Adapter | QLA2341 | 3.03.25 | 1.47 | 8 |
A.5: Host sui quali è implementata la modalitàlanfree backup
CARATTERISTICHE SCHEDE HBA E VER. S.O. PER GLI HOST CHE IMPLEMENTANO IL LANFREEBACKUP | |||||||||
HOST | # TOT. HBA | # HBA X LANFREE BACKUP | OSLEVEL | MANUFACTURER ID | TYPE/MODEL | FEATURE CODE | FIRMWARE | SOFTWARE MULTIPATH | # drive libreria collegati |
uhusuppdb02 | 3 | 1 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 4 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhusuppdb01 | 3 | 1 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 4 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhuistidb02 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhuistidb01 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhcistidb02 | 3 | 1 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 4 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhcistidb01 | 3 | 1 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 4 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhedatidb01 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhebdcxdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.91A5 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uheistidb02 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90X13 | SDDPCM_ver.2.2.0.4 | ||||
uhedatidb02 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhebdcxdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uheistidb01 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fa/LP10000 | 280B | TS1.90A4 | SDDPCM_ver.2.2.0.4 | ||||
uhixiepdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uhir3bwdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001C | df1000fd/LP11002 | 5759 | BS2.71X10 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001C | df1000fd/LP11002 | 5759 | BS2.71X10 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
datamover | 4 | 2 | AIX_5300-07-03-0811 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.0 | 8 |
AIX_5300-07-03-0811 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.0 | ||||
AIX_5300-07-03-0811 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.0 |
AIX_5300-07-03-0811 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.0 | ||||
uhexismdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uheecepdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uher3bwdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uhixiepdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uhtcir3db01 | 4 | 2 | AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001D | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uhir3bwdb01 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uhexismdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uheecepdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
uher3bwdb02 | 4 | 2 | AIX_5300-09-02-0849 | 001C | df1000fd/LP11002 | 5759 | BS2.71X10 | SDDPCM_ver.2.2.0.4 | 8 |
AIX_5300-09-02-0849 | 001C | df1000fd/LP11002 | 5759 | BS2.71X10 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 | ||||
AIX_5300-09-02-0849 | 001B | df1000fd/LP11000 | 5759 | BS2.10X8 | SDDPCM_ver.2.2.0.4 |
A.6: Path definiti dal server TSM verso la tapelibrary
Path definiti sul server tsm select SOURCE_NAME, SOURCE_TYPE, DESTINATION_NAME, DESTINATION_TYPE, LIBRARY_NAME, DEVICE from paths | |||||
SOURCE_NAME | SOURCE_TYPE | DESTINATION_NAME | DESTINATION_TYPE | LIBRARY_NAME | DEVICE |
DATAMOVER_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
DATAMOVER_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
DATAMOVER_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
DATAMOVER_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
DATAMOVER_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
DATAMOVER_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
DATAMOVER_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
DATAMOVER_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
TSMSERVER | SERVER | 3584LIB | LIBRARY | lb1.1.0.4 | |
TSMSERVER | SERVER | DRIVE01 | DRIVE | 3584LIB | mt0.0.0.3 |
TSMSERVER | SERVER | DRIVE02 | DRIVE | 3584LIB | MT1.0.0.3 |
TSMSERVER | SERVER | DRIVE03 | DRIVE | 3584LIB | MT2.0.0.3 |
TSMSERVER | SERVER | DRIVE04 | DRIVE | 3584LIB | MT3.0.0.3 |
TSMSERVER | SERVER | DRIVE05 | DRIVE | 3584LIB | MT0.0.0.4 |
TSMSERVER | SERVER | DRIVE06 | DRIVE | 3584LIB | MT1.0.0.4 |
TSMSERVER | SERVER | DRIVE07 | DRIVE | 3584LIB | MT2.0.0.4 |
TSMSERVER | SERVER | DRIVE08 | DRIVE | 3584LIB | MT3.0.0.4 |
UHEDATIDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHEDATIDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHEDATIDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHEDATIDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHEDATIDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHEDATIDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHEDATIDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHEDATIDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHEDATIDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHEDATIDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHEDATIDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHEDATIDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHEDATIDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHEDATIDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHEDATIDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHEDATIDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHEECEPDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHEECEPDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHEECEPDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHEECEPDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHEECEPDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHEECEPDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHEECEPDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHEECEPDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHEECEPDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHEECEPDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHEECEPDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHEECEPDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHEECEPDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHEECEPDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHEECEPDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHEECEPDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHEISTIDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHEISTIDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHEISTIDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHEISTIDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHEISTIDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHEISTIDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHEISTIDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHEISTIDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHEISTIDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHEISTIDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHEISTIDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHEISTIDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHEISTIDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHEISTIDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHEISTIDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHEISTIDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHELDAPDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHELDAPDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHELDAPDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHELDAPDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHELDAPDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHELDAPDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHELDAPDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHELDAPDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHELDAPDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHELDAPDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHELDAPDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHELDAPDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHELDAPDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHELDAPDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHELDAPDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHELDAPDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt4 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt5 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt6 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt7 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt0 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt1 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt2 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt3 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt4 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt5 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt6 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt7 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt0 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt1 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt2 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt3 |
UHEXISMDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHEXISMDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHEXISMDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHEXISMDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHEXISMDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHEXISMDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHEXISMDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHEXISMDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHEXISMDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHEXISMDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHEXISMDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHEXISMDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHEXISMDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHEXISMDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHEXISMDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHEXISMDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt0 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt1 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt2 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt3 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt4 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt5 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt6 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt7 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt0 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt1 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt2 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt3 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt4 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt5 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt6 |
XXXX0XXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt7 |
UHIXIEPDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHIXIEPDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHIXIEPDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHIXIEPDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHIXIEPDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHIXIEPDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHIXIEPDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHIXIEPDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHIXIEPDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHIXIEPDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHIXIEPDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHIXIEPDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt0 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt1 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt2 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt3 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt4 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt5 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt6 |
XXXXXXXXX00_XXX | XXXXXX | XXXXX00 | XXXXX | 0000XXX | /dev/rmt7 |
UHTCIR3DB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt4 |
UHTCIR3DB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt5 |
UHTCIR3DB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt6 |
UHTCIR3DB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt7 |
UHTCIR3DB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHTCIR3DB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHTCIR3DB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHTCIR3DB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHUISTIDB01_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHUISTIDB01_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHUISTIDB01_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHUISTIDB01_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHUISTIDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHUISTIDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHUISTIDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHUISTIDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHUISTIDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHUISTIDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHUISTIDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHUISTIDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |
UHUISTIDB02_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt4 |
UHUISTIDB02_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt5 |
UHUISTIDB02_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt6 |
UHUISTIDB02_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt7 |
UHUSUPPDB01_STA | SERVER | DRIVE05 | DRIVE | 3584LIB | /dev/rmt0 |
UHUSUPPDB01_STA | SERVER | DRIVE06 | DRIVE | 3584LIB | /dev/rmt1 |
UHUSUPPDB01_STA | SERVER | DRIVE07 | DRIVE | 3584LIB | /dev/rmt2 |
UHUSUPPDB01_STA | SERVER | DRIVE08 | DRIVE | 3584LIB | /dev/rmt3 |
UHUSUPPDB02_STA | SERVER | DRIVE01 | DRIVE | 3584LIB | /dev/rmt0 |
UHUSUPPDB02_STA | SERVER | DRIVE02 | DRIVE | 3584LIB | /dev/rmt1 |
UHUSUPPDB02_STA | SERVER | DRIVE03 | DRIVE | 3584LIB | /dev/rmt2 |
UHUSUPPDB02_STA | SERVER | DRIVE04 | DRIVE | 3584LIB | /dev/rmt3 |