Infinidat Blog

Ridurre i rischi legati all’aggiornamento dei sistemi di storage enterprise(Parte 1)

De-Risking Enterprise Storage Upgrades (Part 1)

Guest Blogger: Eric Burgener, Vicepresidente Ricerca, Infrastruttura, Piattaforme e Tecnologie di IDC

Durante il ciclo di vita di uno storage enterprise, gli amministratori dovranno, con tutta probabilità, aggiornare il sistema più di una volta. Quando definiamo gli aggiornamenti, parliamo nello specifico di aggiornamenti interni al sistema che includono aggiornamenti del firmware e del software, l’applicazione di patch software e diversi tipi di aggiornamenti hardware eventualmente rilevanti (per es. controller, storage devices, ecc.). Per le piattaforme che ospitano workloads mission-critical, la possibilità di effettuare aggiornamenti interni al sistema senza interrompere le operazioni è un requisito fondamentale.

Dal momento che l’infrastruttura IT è sempre più alla base del successo delle aziende, la trasformazione digitale che sta avvenendo in molte imprese non fa che evidenziare ulteriormente la necessità di una maggiore disponibilità per svariate tipologie di workloads. Le decisioni di progettazione e l’implementazione delle funzioni possono notevolmente minimizzare i rischi legati agli aggiornamenti (e, in alcuni casi, possono eliminarli del tutto), e negli storage bisogna controllare che alcuni elementi supportino in maniera assoluta gli aggiornamenti senza interruzione del servizio.

IDC ha notato che, quando i clienti aggiornano l’infrastruttura di rete, esiste una tendenza che porta verso il consolidamento dei workloads misti a densità sempre maggiore. Sebbene il consolidamento dei workloads possa determinare importanti vantaggi economici e amministrativi, può anche aumentare in modo potenziale le dimensioni del dominio di errore. Ciò rende l’elevata disponibilità un requisito fondamentale per un sistema di consolidamento dei workloads. La disponibilità generale di un sistema è influenzata non solo dal livello di ridondanza e dalle routine di ripristino di emergenza integrate nel sistema, ma anche dal modo in cui il sistema stesso si comporta durante gli aggiornamenti interni. Con molti fornitori di storage enterprise che affermano di garantire i fantomatici “cinque o più nove” di affidabilità durante il normale funzionamento, i clienti devono anche analizzare e capire in che modo vengono svolti gli aggiornamenti e quale impatto potrebbero avere sui servizi offerti.

De-Risking Enterprise Storage Upgrades

 

Detto questo, a cosa devono fare attenzione le imprese alla ricerca di una piattaforma storage che supporta aggiornamenti senza l’effettiva interruzione del servizio? Ecco alcuni dei principali fattori, con una breve spiegazione del perché sono importanti:

  • Un design “da zero” più attuale. Molti dei sistemi storage venduti ancora oggi sono stati progettati negli anni Duemila (se non prima). A quel tempo, gli obiettivi di progettazione architetturale erano molto diversi da oggi, così come i requisiti di prestazioni, disponibilità e funzionalità. Dischi flash di tipo persistente non erano neppure all’orizzonte, le tecnologie a efficienza di archiviazione in line non esistevano e si pensava che gli storage primari potessero supportare poche decine di terabyte di capacità e solo gigabyte di larghezza di banda, per citare alcuni esempi. E mentre tutti questi sistemi vengono aggiornati per supportare nuovi tipi di media, i presupposti architetturali di base non possono cambiare molto. Vent’anni fa solo alcuni (forse) storage enterprise erano progettati per aggiornamenti senza interruzione del servizio, perché questo non era affatto un requisito fondamentale. Un approccio “da zero” consente ai fornitori di liberarsi dei vincoli di tipo legacy e di progettare sistemi in modo più efficiente, in linea con gli attuali requisiti. Di seguito vengono analizzati alcuni degli approcci di progettazione più moderni in grado di supportare un funzionamento senza interruzione.

 

  • Design software defined.  Molte delle attuali piattaforme storage enterprise fornite da aziende consolidate sono state progettate con un approccio “hardware defined”. Nell’ultimo decennio, la tendenza si è invece evoluta verso una progettazione “software defined”. Quest’ultima è preferibile in quanto, assegnando più funzionalità al software, rende più facile aggiungere nuove funzioni, supportare migliori capacità di aggiornamento senza interruzioni del servizio, ospitare nuove e diverse tecnologie hardware e geometrie dei dispositivi e offrire una maggiore flessibilità.
    Le nuove release software offrono prestazioni più elevate e nuove funzionalità critiche senza richiedere alcun aggiornamento hardware. Mentre alcune funzionalità possono essere spostate nel software anche in presenza di vecchi design “hardware defined”, un’architettura “da zero” che parte con un orientamento software defined offre una maggiore flessibilità che consente una estensiva possibilità di innovazione delle funzioni attraverso gli aggiornamenti software.
    Gli approcci Software-defined consentono la virtualizzazione front-end e back-end dello storage. Questo design permette di effettuare aggiornamenti funzionali su ciascuna metà senza che questo abbia un effetto a catena sull’altra, a supporto di aggiornamenti più affidabili e senza interruzione del servizio. Permettono anche un migliore isolamento dei guasti, al fine di minimizzarne gli impatti, e routine di gestione degli errori meno complesse, con vantaggi non solo sulle attività di ripristino, ma anche sull’esecuzione degli aggiornamenti. I design software defined hanno dimostrato tali vantaggi e questa è una delle ragioni per cui il settore sta gradualmente abbandonando gli approcci definiti da hardware.

 

  • Sistemi operativi con un’architettura con molte funzioni nello spazio utente (e non nel kernel).  I sistemi operativi storage legacy realizzati attorno ad architetture monolitiche erano molto più soggetti a errori o altri impatti negativi anche in caso di problemi di lieve entità. Questi sistemi richiedevano, inoltre, test di regressione completi tutte le volte in cui venivano aggiunte nuove funzioni, determinando rischi notevoli in caso di modifiche. I design più moderni limitano le capacità di plumbing dell’infrastruttura core al kernel, rendendolo molto più piccolo e più affidabile, eseguendo nello spazio utente funzioni quali riduzione dei dati, snapshot, crittografia, qualità del servizio, replica e altre operazioni di gestione dei dati archiviati. Grazie a questo approccio, una qualunque di queste funzioni potrebbe presentare un errore o essere aggiornata senza per questo influenzare il kernel, consentendo al sistema nella sua interezza di continuare ad eseguire le modifiche necessarie. Questo approccio rende i sistemi più affidabili, consente aggiornamenti meno soggetti a rischi e richiede minori test di regressione quando vengono apportate modifiche da fornitori o utenti.

 

Questi tre elementi di progettazione sono stati presi in considerazione dai vendor di storage enterprise che hanno progettato le loro architetture negli ultimi sei o sette anni. Ma Infinidat, fornitore di sistemi di storage enterprise interessato alla vendita su larga scala di sistemi appositamente progettati per il consolidamento di workload aziendali misti e a grande densità, ha superato questi tre approcci comuni adottando elementi innovativi, in grado di migliorare ancora di più il funzionamento dei sistemi senza interruzioni. Proprio questi elementi sono l’argomento del mio prossimo post dedicato alla riduzione dei rischi legati agli aggiornamenti.

 

Informazioni Eric Burgener

Eric Burgener è Vicepresidente Ricerca dell’Enterprise Infrastructure Practice di IDC. Le sue ricerche si concentrano su sistemi di storage, software e soluzioni, tracciamento trimestrale, ricerca sugli utenti finali, servizi e programmi di consulenza. A partire dalla sua esperienza in ambito storage enterprise, la ricerca di Burgener pone particolare enfasi sugli array con ottimizzazione flash, sulle emergenti tecnologie di memoria persistente e storage software defined. Partecipa attivamente all’IT Buyers Research Program di IDC e pubblica con frequenza sul blog post incentrati sulla gestione dell’infrastruttura e dei dati.