e-Commerce: trend di crescita a doppia cifra grazie all’offerta Cloud

Dionigi Faccenda, direttore Sales&Marketing, OVHIn netta controtendenza rispetto a un’economia che tarda a ripartire, con i consumi “tradizionali” in affanno, l’e-Commerce prosegue la propria corsa con un trend di crescita a doppia cifra, trainato dallo sviluppo di tecnologie innovative, dalla diffusione di massa di device mobile e dall’aumento della fiducia dei consumatori nei confronti del web.

Un mercato che in Italia vale 16,6 Miliardi di Euro, in rialzo del 16% nell’arco di 12 mesi, come emerso dall’anticipazione dell’indagine dell’Osservatorio eCommerce B2C Netcomm-School of Management del Politecnico di Milano, secondo cui, gli acquirenti online sono 17,7 Milioni, con una spesa media di 950,00€ in un anno. A promuovere il comparto sono il turismo (+14%), l’informatica e l’elettronica di consumo (+21%), l’abbigliamento (+19%) e l’editoria (+31%). I segmenti emergenti sono il Food&Grocery, l’Arredamento&Home Living e la cosmetica. L’e-Commerce mobile sta prendendo sempre più il sopravvento nella vita quotidiana dei consumatori, che effettuano gran parte delle loro ricerche dal cellulare, ricercando e confrontando i migliori prodotti al prezzo più vantaggioso.

Uno dei prodotti di punta di OVH è rappresentato dall’Hosting Web. Sviluppato e ottimizzato in collaborazione al team di Prestashop, rappresenta una soluzione per l’e-Commerce altamente personalizzabile e facile da configurare. Elevate performance al miglior rapporto qualità/prezzo, assicurate dalla possibilità di accrescere, in meno di un’ora, la capacità di potenza e far fronte a improvvisi picchi di traffico, mantenendo la qualità del servizio ai livelli di massima efficienza, pagando solo per il reale consumo effettuato.

Il Dedicated e il Public Cloud di OVH costituiscono due ulteriori servizi a disposizione degli operatori del settore per supportare i picchi di carico stagionali. Entrambi si caratterizzano per la facilità di utilizzo che consente al Cliente di gestire, in modo semplice e trasparente, il proprio sito e-Commerce, con grandi vantaggi in termini di scalabilità, reversibilità e flessibilità. La possibilità di aumentare o diminuire le risorse a disposizione in soli 5 minuti, garantisce un investimento sempre commisurato alle reali necessità del proprio business.

L’offerta si completa con i Server Dedicati OVH: al crescere del traffico su un sito, il passaggio da Hosting Web a Server Dedicato diviene quasi indispensabile. Da una banda garantita da 250 a 500Mbps, per upload e download illimitati di flussi di dati, i Server Dedicati OVH permettono di aumentarla fino a 1Gbps, per gestire gli aumenti di traffico, eliminando tempi di latenza nella navigazione del sito.

Proteggere i dati e il cloud ibrido

I servizi di cloud sono in grado di fornire livelli di flessibilità e scalabilità senza precedenti, consentendo al contempo di risparmiare sull’hardware e su altri costi associati a soluzioni on-premises.

Ma il backup e l’archiviazione dei dati nel cloud presenta le sue sfide, soprattutto per le aziende che non dispongono di uno staff IT numeroso. In genere i dati rappresentano il bene principale di un’azienda, per questo devono essere protetti da disastri, perdite o furti. Nell’economia real-time digitale, i dati devono inoltre essere facilmente accessibili – al personale autorizzato – per consentire ai dipendenti di essere produttivi e servire meglio i clienti come parte delle odierne attività altamente digitali.

Le aziende di qualunque dimensione archiviano i propri dati in più luoghi – il centro dati interno, server fisici e virtuali, archivi off-site, cloud storage (spesso con più fornitori), computer collegati in rete, dispositivi e applicazioni mobili e account cloud dei dipendenti come Dropbox. Non solo: le aziende elaborano sempre di più un ampio range di carichi di lavoro in ambienti misti, inclusi applicazioni fisiche e virtuali e dispositivi mobili.

Per i professionisti IT che gestiscono le reti di piccole e medie imprese, tentare di gestire e mettere al sicuro i dati in più luoghi utilizzando soluzioni multiple-point può trasformarsi velocemente in un incubo frustrante che porta via molto tempo.

Senza una piattaforma singola di facile utilizzo in grado di offrire un maggiore controllo e una gestione unificata, il settore IT avrà difficoltà a soddisfare i requisiti dell’azienda in relazione alla protezione base dei dati. In caso di incendio, alluvione, interruzione prolungata dei servizi di rete o violazioni della sicurezza di grave entità, un backup e una protezione inadeguati dei dati possono causare il fallimento di un’azienda che non sia in grado di recuperare o ripristinare velocemente il funzionamento dei sistemi IT.

Il solo utilizzo del backup su cloud può complicare l’accesso ai dati, la protezione e il backup dei dati poiché questi vengono archiviati in un sito remoto gestito da terzi e collegato tramite una rete. In caso di interruzione della rete i dati risultano inaccessibili, a meno che non siano stati salvati on-premises, in un centro dati o in qualche altro archivio locale come un dispositivo o la postazione di lavoro di un dipendente. Inoltre, un’azienda che utilizza solo l’archiviazione su cloud si affida in gran parte ad una terza parte che protegge fisicamente i suoi dati. I Service Level Agreement possono specificare livelli di protezione dati e uptime del cloud promessi, ma difficilmente questi sono garantiti.

Per garantire la totale protezione dei dati archiviati in più luoghi localmente e in remoto, le aziende necessitano di una soluzione dati hybrid cloud in grado di copiare i dati da e su diversi deployment cloud, sia in siti locali che remoti, PC e server virtuali. Effettuando il backup automatico in più luoghi, le aziende possono salvaguardare i loro preziosi dati fornendo al contempo un accesso sicuro a dipendenti, partner, clienti e applicazioni.

Una piattaforma completa per la protezione dei dati deve assicurare alla vostra attività un’efficace protezione contro qualunque tipo di minaccia di perdita di dati, che si tratti di:
· un backup locale per un PDF o un foglio di lavoro accidentalmente cancellato da un dipendente
· una connessione persa al fornitore di servizi Internet che ospita o gestisce il vostro sito web
· il cloud recovery di un intero database a seguito di un’alluvione presso la sede centrale di un’azienda
Sicurezza, protezione e privacy

Il backup dei dati per proteggerli da incidenti, negligenza dell’utente e disastri naturali è essenziale nel mercato moderno, altamente digitale e mobile. Così come è essenziale garantire la sicurezza, la protezione e la privacy dei dati mentre questi passano dalla app mobile di un cliente ad un cloud server e ad un server virtuale nel centro dati dell’azienda, per poi tornare all’inizio della catena.

Una protezione dati efficace comprende anche la protezione delle identità delle persone (come clienti o dipendenti) associate ai dati della propria azienda. Questo può essere effettuato archiviando le informazioni su proprietà separatamente dai dati rilevanti, impedendo così ad un hacker di collegare dati bancari o finanziari ad un nome. In molti casi, la protezione dei dati implica anche la garanzia che l’azienda soddisfi gli standard di privacy e conformità dei dati. (Questo è un tema centrale per le assicurazioni sanitarie, le quali sono chiamate a soddisfare requisiti di privacy dei dati dei pazienti nazionali.)

Partendo dall’esigenza di una singola piattaforma di gestione di facile utilizzo per la protezione dei dati in un ambiente cloud ibrido, Acronis ha sviluppato una piattaforma unificata di protezione hybrid cloud dei dati, che offre una soluzione facile, completa e conveniente per la protezione del patrimonio digitale, informativo e intellettuale.

La piattaforma di protezione dati hybrid cloud di Acronis utilizza una singola dashboard unificata, che consente ai responsabili IT di gestire operazioni di backup e ripristino per macchine fisiche e virtuali on-premises, in un ambiente remoto o nel cloud. Fra le caratteristiche di questa piattaforma unificata di Acronis vi sono:
· Protezione completa garantita da backup, cloud storage, disaster recovery e sincronizzazione e condivisione di file
· Supporto per qualunque carico di lavoro attraverso applicazioni virtuali, fisiche e ambienti mobili – inclusi Amazon Web Services, Microsoft Azure e Microsoft Exchange
· Supporto per qualunque archiviazione su cloud, disco fisso, nastro, Network Attached Storage (NAS) e Storage Area Network (SAN) – inclusi Acronis, Amazon Web Services, Microsoft Azure e altri ancora.

PureCloud Engage per Salesforce

salesforce PC screen popInteractive Intelligence Group ha reso disponibile PureCloud Engage℠ per Salesforce su Salesforce AppExchange, dando alle imprese la possibilità di connettersi con clienti, partner e impiegati in un modo completamente nuovo.
Interactive Intelligence è un fornitore globale di servizi cloud per il customer engagement, le comunicazioni e la collaborazione progettati per aiutare le aziende di tutto il mondo a migliorare i servizi, aumentare la produttività e ridurre i costi.
PureCloud Engage℠ è distribuito attraverso la piattaforma PureCloud℠ di Interactive Intelligence, l’ultima soluzione cloud dell’azienda, progettata come un insieme di microservice indipendenti e con bilanciamento di carico basato sugli Amazon Web Services. La piattaforma PureCloud℠ offre il più completo set di servizi progettati per garantire risultati di business di successo per le organizzazioni di ogni tipo e dimensione.
PureCloud Engage℠ per Salesforce di Interactive Intelligence offre le seguenti funzionalità:
• Schermate pop-up guidate da regole: Dati dell’utente, come l’ID chiamante, il numero chiamato (DNIS), case number e indirizzo email, guidano finestre pop-up dei contatti associati a Salesforce, per generare o personalizzare un servizio più veloce ed efficiente.
• Controlli di gestione dell’interazione embedded: La capacità di gestire, monitorare e accodare le chiamate, le email, web chat e callback dall’interno dell’interfaccia Salesforce consentono un incremento della produttività.
• Presence Management : Offre una serie di impostazioni di presence e stato in tempo reale per migliorare la collaborazione.
• Reporting unificato: L’interaction reporting integrato con Salesforce permette una migliore comprensione della performance , l’incremento della produttività, e migliora la coerenza e l’accuratezza dei dati.

Interoute apre un Virtual Data Centre (VDC) ad Istanbul

Interoute ha esteso la propria piattaforma di networked cloud in Asia grazie all’apertura di un Virtual Data Center (VDC) a Istanbul. Il cloud globale integrato e la piattaforma di rete di Interoute è ora disponibile in 15 sedi distribuite in 3 diversi continenti. Il nuovo nodo di Istanbul dimostra ulteriormente la continua espansione della piattaforma cloud di Interoute, rendendolo l’unico provider ad offrire in Turchia un cloud locale connesso, tramite un’unica piattaforma, agli altri nodi globali presenti nel resto di Europa, Asia e Nord America.

Questo nuovo nodo in Turchia offre alle aziende europee l’opportunità di accedere a nuovi utenti e di sviluppare la propria attività nel dinamico business hub di Istanbul, mentre le imprese del Medio Oriente e i mercati occidentali dell’Asia Meridionale possono facilmente raggiungere nuovi clienti grazie alla bassa latenza e al throughput elevato garantito dal networked cloud di Interoute. Il nuovo Virtual Data Center offre, inoltre, alle imprese locali ad Istanbul un’alternativa ad altri cloud provider i cui nodi sono unicamente negli Stati Uniti o in Europa Occidentale. Questa vicinanza consente di ospitare le applicazioni dove sono realmente gli utenti, senza la necessità di trasferire i dati a migliaia di chilometri di distanza per l’elaborazione.

 

Il VDC di Interoute è un networked cloud che offre sia servizi di cloud pubblico che di cloud privato, realizzati all’interno della vasta rete di nuova generazione di Interoute. Le performance sono ottimizzate poiché i dati sono instradati all’interno della dorsale globale, garantendo livelli di latenza tra i più bassi del mercato[1]. La piattaforma supporta i dati, i software e i servizi digitali affiancando i sistemi legacy dei clienti, per abilitare la digital transformation e la creazione di servizi per le imprese.

Il quantum computing IBM su IBM Cloud

IBM Research ha annunciato che per la prima volta, metterà a disposizione degli utenti il quantum computing, consentendo l’accesso e l’esecuzione di esperimenti sul processore quantistico IBM.

Gli scienziati IBM hanno costruito un processore quantistico a cui gli utenti potranno accedere tramite una piattaforma quantistica unica nel suo genere, messa a disposizione sull’ IBM Cloud per qualsiasi dispositivo desktop o mobile. IBM considera il quantum computing come il futuro della computazione, con il potenziale per risolvere diversi problemi non trattabili con i supercomputer di oggi.

Questa piattaforma di quantum computing su cloud, denominata IBM Quantum Experience, consentirà agli utenti di eseguire algoritmi ed esperimenti sul processore quantistico di IBM, lavorare con singoli bit quantistici (qubit) ed esplorare attraverso tutorial e simulazioni tutte le possibilità del quantum computing.

Il processore quantistico è composto da cinque qubit superconduttori e si trova presso l’IBM T.J. Watson Research Center di New York. Questo processore a cinque qubit rappresenta la più recente avanguardia nell’architettura quantistica IBM con scalabilità a sistemi quantistici più ampi. E’ attualmente la modalità principale verso la costruzione di un quantum computer universale.

Un computer quantistico universale può essere programmato per eseguire qualsiasi attività computazionale, con velocità di elaborazione esponenzialmente superiori rispetto ai computer tradizionali per importanti applicazioni in ambito scientifico e industriale.

Ad oggi non esiste ancora un computer quantistico universale, tuttavia IBM prevede che i primi processori quantistici di taglia media, da 50-100 qubit, saranno una realtà entro il prossimo decennio. Per dare un’idea dell’impressionante potenziale di questa tecnologia, è sufficiente pensare che nessuno dei TOP 500 supercomputer di oggi potrebbe emulare le prestazioni di un computer quantistico costruito con soli 50 qubit. La comunità degli scienziati e dei teorici del quantum computing sta lavorando per controllare e sfruttare al meglio questa potenza, e le applicazioni in ambito chimico e di ottimizzazione saranno probabilmente le prime a mostrarne la straordinaria velocità.

Con il tramonto della “legge di Moore”, il quantum computing sarà fra le tecnologie che daranno inizio ad una nuova era dell’innovazione industriale. Questo salto in avanti nella computazione potrebbe a sua volta condurre alla scoperta di nuovi farmaci, salvaguardare completamente i sistemi di cloud computing, rivelare nuovi aspetti dell’intelligenza artificiale (che potrebbero accelerare lo sviluppo di nuove e più potenti tecnologie Watson), produrre nuovi sviluppi nella scienza dei materiali per trasformare la produzione industriale e consentire operazioni di ricerca su volumi massicci di dati.

IBM Quantum Experience

Le informazioni quantistiche sono molto fragili e necessitano di una protezione da qualsiasi errore causato da calore o radiazioni elettromagnetiche. Per misurare le attività sul processore quantistico, vengono inviati dei segnali da e verso un refrigeratore a diluizione criogenica.

Il team IBM ha implementato una serie di robusti avanzamenti ingegneristici sia a livello di dispositivo che nei controlli elettronici per garantire agli utenti di questo processore IBM Quantum Experience a cinque qubit prestazioni elevate con la massima affidabilità.

Assistito dall’esperienza software dell’ecosistema IBM Research, il team ha sviluppato un’interfaccia utente dinamica sulla piattaforma IBM Cloud che consente agli utenti di collegarsi facilmente all’hardware quantistico tramite cloud. Per il team, l’introduzione al pubblico di questo framework completo di quantum computing rappresenta l’alba di una nuova community di utenti che abbraccia il mondo quantistico e le sue dinamiche.

In futuro, gli utenti avranno la possibilità di contribuire ed esaminare i propri risultati nella community ospitata su IBM Quantum Experience, con un coinvolgimento in prima persona degli scienziati IBM per offrire più ricerca e insight sulle innovazioni tecniche. IBM prevede di aggiungere a IBM Quantum Experience nuovi qubit e diversi layout di processori nel corso del tempo, per consentire agli utenti di ampliare le proprie sperimentazioni e stimolare la scoperta di nuove applicazioni per questa tecnologia.

Quantum computing – un modo diverso di pensare

Viviamo in un mondo in cui la fisica classica definisce le nostre esperienze e le nostra intuizioni, e sostanzialmente il modo stesso con cui elaboriamo le informazioni. Tuttavia, la natura a livello atomico è governata da leggi fisiche diverse, conosciute come meccanica quantistica. I computer tradizionali non sono in grado di affrontare problemi pertinenti agli ambiti della natura governati dalla meccanica quantistica, ad esempio la comprensione del comportamento delle molecole.

Per fronteggiare tali difficoltà, nel 1981 Richard Feynman suggerì la costruzione di computer basati sulle leggi della meccanica quantistica. Più di trent’anni dopo, IBM sta lavorando per trasformare quella intuizione in realtà.

Il quantum computing funziona in modo radicalmente diverso dai computer odierni. Un computer tradizionale utilizza i bit per elaborare le informazioni, e ogni bit rappresenta un 1 oppure uno 0: al contrario, un qubit può rappresentare un 1, uno 0, o entrambi contemporaneamente, una condizione nota come sovrapposizione. Insieme ad altri effetti quantistici, questa proprietà consente ai computer quantistici di effettuare determinati calcoli molto più rapidamente rispetto ai computer tradizionali.

Attualmente, larga parte della ricerca accademica e industriale nel settore del quantum computing è concentrata sulla costruzione di un computer quantistico universale. Fra le sfide principali si contano la creazione di qubit ad alta qualità e il loro raggruppamento in modo scalabile, al fine di poter eseguire calcoli complessi in modo controllabile.

IBM impiega qubit superconduttori prodotti in metalli superconduttori su chip in silicio, che possono essere progettati e prodotti con le tecniche standard di produzione del silicio. Lo scorso anno, gli scienziati IBM hanno dimostrato alcune svolte fondamentali per rilevare gli errori quantistici combinando i qubit superconduttori in disposizioni reticolari, il cui design del circuito quantistico è la sola architettura fisica scalabile a dimensioni più elevate.

Oggi gli scienziati IBM hanno compiuto un ulteriore passo avanti combinando cinque qubit in architettura reticolare, dimostrando un’attività chiave nota come misurazione della parità: la base di molti protocolli di correzione degli errori quantistici. La strada verso il quantum computing universale è legata a doppio filo alla capacità di gestione della correzione degli errori quantistici, e il team IBM ha completato un’altra fase fondamentale di questo difficile percorso.

 

 

StorageCraft lancia il cloud con ripristino di emergenza in Europa

CORK, Irlanda, 13 aprile 2016 /PRNewswire/ — Oggi StorageCraft® Technology ha annunciato la disponibilità del suo cloud dedicato al backup e al ripristino di emergenza per l’Europa. StorageCraft Cloud Services, che ha già conquistato la fiducia dei professionisti IT nel Nord America, in Australia e in Nuova Zelanda, consente agli utenti di personalizzare la copertura cloud in base alle proprie esigenze di ripristino uniche.

StorageCraft Cloud Services dispone di un portale di facile utilizzo e offre diverse opzioni di ripristino flessibili per ridurre i downtime e la perdita di dati dei sistemi con un ripristino rapido mediante sistemi completamente virtualizzati e in rete nel cloud. StorageCraft Cloud Services presenta inoltre una struttura dei prezzi conveniente e senza costi aggiuntivi nascosti.

La soluzione StorageCraft Cloud Services, basata sulla tecnologia della premiata suite di software StorageCraft ShadowProtect®, offre ai professionisti IT le seguenti funzionalità:

  • Virtualizzazione e collegamento alla rete immediati di backup basati su cloud.
  • Accesso granulare a file e cartelle.
  • Invio e ricezione diretti di seed e BMR drive.
  • Controllo personale dei backup su cloud per ripristini rapidi.
  • Sicurezza e crittografia di data center con standard di livello 3 per garantire l’architettura hardware e software del cloud più sicura possibile.
  • Portale Cloud Services facile da utilizzare e self-service, per ripristinare in modo semplice e rapido sistemi e dati.
  • Monitoraggio globale 24 ore al giorno, 365 giorni all’anno da parte del Network Operations Center e disponibilità del team di supporto.

StorageCraft Cloud Services è disponibile in diverse opzioni flessibili e con livelli di assistenza superiori:

  • Cloud Basic: archiviazione offsite sicura di backup aziendali cruciali con ripristino completo del sistema tramite BMR drive.
  • Cloud+: include tutte le opzioni Cloud Basic, più il ripristino di file e cartelle immediato.
  • Cloud Premium: include tutte le opzioni di Cloud+, così come la virtualizzazione istantanea di sistemi e dati nel cloud.

Cloudera Enterprise 5.7

Cloudera annuncia la disponibilità di Cloudera Enterprise 5.7. Questa nuova release offre prestazioni avanzate per i carichi di lavoro più importanti – tra cui un miglioramento medio di tre volte superiore per l’elaborazione dei dati con il supporto aggiuntivo di Hive-on-Spark, e un miglioramento medio di due volte superiore per le analisi di business intelligence con aggiornamenti per Apache Impala (in fase di progettazione). Inoltre, questa versione aggiunge visibilità sull’utilizzo multi-tenant di questi carichi di lavoro per una gestione efficiente e l’ottimizzazione delle risorse. Cloudera Enterprise 5.7 rappresenta un ulteriore significativo progresso per Hadoop e la sua crescita al fine di supportare nuovi e svariati casi d’uso, ed è rappresentativo della leadership di Cloudera nel garantire alle imprese moderne un utilizzo completo della piattaforma all’interno dell’intera struttura aziendale.

Lo sviluppo ETL e l’elaborazione in batch rimangono tra i casi di utilizzo più comuni per Hadoop. Apache Hive svolge da tempo un ruolo chiave per i carichi di lavoro, anche se tradizionalmente sfrutta MapReduce come motore di esecuzione. Tuttavia, grazie alle sue caratteristiche di facile sviluppo e prestazioni più veloci rispetto a MapReduce, Apache Spark assume un ruolo sempre più importante ed è candidato a sostituire MapReduce per i carichi di lavoro. L’anno scorso Cloudera ha lanciato One Platform Initiative come roadmap per completare il processo di transizione da MapReduce a Spark e per stimolare lo sviluppo di una migliore integrazione con Hadoop Spark, assicurando la soddisfazione dei requisiti aziendali per i carichi di lavoro di produzione anche su larga scala. Il rilascio di Hive-on-Spark in Cloudera 5.7 porta Spark più vicino agli sviluppatori che possono ora sfruttare le potenti capacità di elaborazione dei dati di Spark, pur continuando a utilizzare Hive, con prestazioni triplicate. Hive-on-Spark è un’iniziativa basata sulla community lanciata da Cloudera, IBM, Intel, MapR e altri, che coinvolge i clienti di molti settori – tra cui pubblicità, servizi finanziari e assicurazioni – come parte di un programma di accesso privilegiato per favorire un ulteriore sviluppo.

Per ulteriore coerenza, Cloudera ha lavorato con un ecosistema di oltre 2.300 partner per garantire ai clienti la possibilità di continuare a utilizzare gli strumenti principali per l’integrazione dei dati e di preparazione con Hive-on-Spark, senza interrompere l’attività aziendale. Partner tra cui BMC, ClearStory Data, Elastic, NGDATA, Solix, Trillium Software, Zementis e altri stanno collaborando con Cloudera per certificare le loro tecnologie per una transizione ottimale.

Essere in grado di supportare molteplici casi d’uso attraverso gli stessi dati condivisi all’interno di un singolo cluster è un vantaggio fondamentale per Hadoop. Con Cloudera Enterprise, gli amministratori possono facilmente fornire agli utenti e alle applicazioni le risorse corrette da utilizzare per soddisfare gli accordi Service Level Agreements (SLAs) più critici. Con quest’ultima release, gli amministratori ottengono piena visibilità sull’utilizzo passato e sull’efficienza per utenti, tenant e applicazioni. La nuova funzionalità di reporting di utilizzo del cluster, incorporata in Cloudera Manager, garantisce operazioni efficienti e la corretta allocazione delle risorse tra gruppi e tipologie di carico di lavoro; questo aiuta a soddisfare gli accordi SLA e fornisce una semplice risoluzione delle problematiche legate alle prestazioni di lavoro e alle query.

Di seguito, alcune delle altre caratteristiche di Cloudera 5.7:
· Raddoppio delle prestazioni per le analisi di BI: Impala continua a mantenere la sua leadership in termini di prestazioni come il più veloce motore analitico SQL per Hadoop attraverso il partizionamento dinamico, un più veloce avvio delle query, filtri di runtime e altro ancora
· Percorso semplificato per la produzione: Cloudera Manager include modelli di cluster che forniscono un semplice flusso di lavoro per replicare facilmente le impostazioni di configurazione di nuovi cluster – che lo rende facile da dislocare da un ambiente di test ottimizzato alla produzione, scalare tra le diverse aree geografiche o ripristinarlo rapidamente a una configurazione conosciuta in caso di problemi
· Governance dei dati ottimizzata: Cloudera Navigator si apre alla gestione dei dati e alla governance per l’utente business con funzionalità di derivazione semplificate per stabilire l’affidabilità e la provenienza dei dati, e aggiunge metadati gestiti per migliorare la reperibilità e la coerenza tra i sistemi.

 

Commvault supporta Amazon Web Services (AWS) Snowball

Commvault annuncia il supporto di Amazon Web Services (AWS) Snowball, una soluzione di trasporto dati sicura petabyte-scale per migrare grandi quantità di dati all’interno e all’esterno di AWS Cloud. Grazie alla collaborazione con AWS, Commvault accelera la portabilità dei workload e offre opzioni di disaster recovery nel cloud aumentando l’efficienza operativa complessiva. Questo nuovo supporto abilita una più rapida migrazione di grandi quantità di dati ed elimina i colli di bottiglia nelle connessioni Internet e di rete.
A mano a mano che le imprese accelerano il passaggio da infrastrutture tradizionali on-premise al cloud quale obiettivo strategico per trasformare le operazioni e incrementare l’agilità di business, molte organizzazioni faticano a superare le sfide associate ai trasferimenti di dati su larga scala, compresi elevati costi di rete, lunghi tempi di trasferimento e preoccupazioni legate alla sicurezza. Avvalendosi di AWS Snowball insieme al software Commvault, i clienti possono orchestrare le migrazioni di workload di qualunque dimensione verso Amazon AWS Cloud in maniera più rapida, efficace e sicura rispetto a una connessione Internet tradizionale.
L’annuncio estende il supporto e l’integrazione di Commvault con AWS Services tra cui Amazon EC2, Amazon Elastic Block Store (Amazon EBS), Amazon Simple Storage Service (Amazon S3), Amazon S3 – Infrequent Access (Standard- IAS) e Amazon Glacier.

Il Cloud ibrido

Ivan Renesto, Enterprise Solutions Marketing Manager, Dell ItaliaIl Cloud computing è divenuto un significativo tema di conversazione nel settore tecnologico e viene visto come meccanismo di delivery chiave per abilitare i servizi IT. La realtà odierna è che la maggior parte delle aziende si avvale di qualche forma di Cloud perché offre nuove opportunità di business.

Il Cloud fornisce una gamma di modelli di implementazione e servizio: on e off premise, pubblico, privato e gestito. Osserviamo alcune organizzazioni partire dal Cloud pubblico per via della facilità d’ingresso e dei costi contenuti percepiti. Alcune aziende usano il Cloud per i loro gruppi di test e sviluppo perché è più semplice appoggiarsi a questa infrastruttura che realizzarne una in-house. Altre lo scelgono perché semplicemente non hanno le risorse per realizzare e gestire un’infrastruttura di Cloud privato o perché preferiscono utilizzare le loro risorse IT diversamente. Tuttavia, vediamo un numero crescente di aziende realizzare architetture di Cloud privato che stanno diventando più facili e veloci da implementare, pur offrendo i vantaggi legati al controllo e alla sicurezza.

Detto ciò, il Cloud di ogni organizzazione riflette le sue specifiche strategie, priorità ed esigenze. Ecco perché ne troviamo una così grande varietà e, nella maggior parte dei casi, ci aspettiamo di vedere lo sviluppo di una strategia ibrida o multi-Cloud.

Il percorso verso il Cloud
Indipendentemente da dove il viaggio inizi, non c’è una soluzione o risposta specifica sul modo in cui utilizzare al meglio le soluzioni Cloud. Il viaggio si evolve nel tempo e richiede molteplici Cloud con una combinazione di realtà pubbliche, private e possibilmente gestite, risultando in un Cloud ibrido.

Prima di decidere per un approccio, è importante capire tutte le possibilità che le tecnologie Cloud possono offrire e definire iniziative, priorità e risultati desiderati necessari per supportare le esigenze di business. La decisione non deve focalizzarsi unicamente sul tipo di Cloud da implementare – privato, pubblico, gestito o ibrido – ma sulla messa a punto del giusto ambiente al costo giusto con le caratteristiche adeguate – agilità, sicurezza, costo, conformità – per raggiungere l’obiettivo.

Quando si valutano le opzioni Cloud è importante cercare soluzioni che assicurino i seguenti vantaggi:
• Innovazione – il Cloud offre la possibilità di fornire valore ai clienti oggi e in futuro?
• Agilità – questo approccio offre un modo flessibile e modulare per soddisfare le mutevoli esigenze dei clienti e scala in maniera efficiente e veloce?
• ROI – in che modo il Cloud genererà maggiore valore ai clienti finali? Come aiuterà a ottimizzare le tecnologie esistenti e a ridurre il TCO?
• Scelta – questo Cloud permette workload personalizzati? Come affronta i temi della conformità e della sicurezza?
• Semplicità – questo Cloud semplificherà o complicherà l’ambiente IT? Come verrà gestito?

È probabile che l’utilizzo di diverse tipologie di Cloud assicuri la miglior realizzazione di questi vantaggi.

Inoltre è importante considerare quale piattaforma fornirà i risultati di business ottimali per un determinato workload. Con il Cloud ibrido molteplici carichi di lavoro possono operare su piattaforme cloud diverse. Dato che la domanda di workload è variabile, queste ultime possono trarre vantaggio da più di una piattaforma Cloud scelta in base alle opzioni più affidabili e convenienti in un determinato momento. Evidenza di questo trend è che alcuni workload originariamente ospitati nel Cloud pubblico stanno ‘rientrando’ sotto il controllo interno – una tendenza denominata Cloud repatriation.

Questa rappresenta una reale proposizione di valore in termini di efficienza e di gestione efficace di un percorso verso il Cloud, ottenendo risultati in modo veloce e facendo ciò che è meglio per l’organizzazione. Ma, soprattutto, indica dove il Cloud, o tutto l’IT, sta andando. Il dibattito si è spostato da “Cloud pubblico o privato” a “quando e quanto rapidamente” un’azienda raggiungerà lo stato di Cloud ibrido che realmente riflette le sue esigenze.

Andando oltre, al di là di repatriation e Cloud ibrido, le aziende inizieranno a valutare una strategia multi-Cloud che permetterà loro di disporre di supporto on premise e di avvalersi di un public Cloud provider, e saranno in grado di scegliere di servirsi di molteplici public Cloud provider – gli Amazon, Azure, Google di questo mondo – per raggiungere gli obiettivi di business.

Infine, vi sono molteplici fattori che determinano quali soluzioni o piattaforme Cloud assicureranno i migliori risultati di business da un determinato workload. Una strategia di Cloud ibrido consente di trarre vantaggio da diverse piattaforme e ‘dimensionare’ correttamente i workload per l’azienda. Alla fine è questo che impatterà sul modo in cui l’infrastruttura supporta l’azienda a ottenere i risultati di business sperati.

La nuova frontiera del cloud computing: OpenStack e Docker

Roberto Castelli, Ceo e fondatore, B-CloudIl “Software-Defined Everything”, è uno dei trend tecnologici forse più significativi oggi in atto: tutte le componenti che fanno parte di una infrastruttura IT (storage, server, network) possono essere virtualizzate e integrate e poi offerte in modalità “solution as a service” attraverso il cloud, sia esso pubblico, privato o ibrido. Tutto ciò che riguarda i dati aziendali basati su componenti hardware e software, viene gestito in modo automatizzato dai software innovativi che rappresentano il cuore della tecnologia Software Defined-IT. Parlare di software defined significa quindi spostare l’intelligenza dell’infrastruttura IT a livello software, riducendo o eliminando l’hardware specializzato. Le soluzioni tecnologiche in questo ambito sono molteplici, in particolare OpenStack e Docker stanno attirando da qualche tempo l’attenzione di molte aziende a livello mondiale. Parliamo di queste due piattaforme e quindi di cloud open source con Roberto Castelli, Ceo e fondatore di BCLOUD, azienda concentrata su soluzioni e competenze per la creazione di servizi cloud- oriented e Software Defined.

Perché OpenStack e Docker sono oggi così al centro dell’attenzione delle organizzazioni?

Openstack è un sistema operativo per il cloud computing che consente di offrire servizi di gestione di storage, networking e computing in modalità IaaS (Infrastructure as a Service) per la creazione di piattaforme cloud pubbliche e private. E’ uno dei progetti open più importanti del momento che coinvolge grandi player del mercato tra cui Red Hat. E’ in continua crescita ed è adottato nei datacenter di tutto il mondo sia per l’ampia gamma di funzionalità offerte, sia per l’aspetto economico ma soprattutto, per la straordinaria flessibilità e interoperabilità tra le componenti dei differenti vendor e dei progetti opensource che lo compongono, garantendo quindi sempre la miglior soluzione alle specifiche richieste.

Con Docker entriamo nel mondo dei Container e rappresenta la risposta alle esigenze delle applicazioni che vengono ridisegnate come “microservice”. Esso punta all’automazione del deployment delle applicazioni all’interno di container software, fornendo un’astrazione addizionale grazie alla virtualizzazione a livello di sistema operativo Linux. Con Docker quindi si fa strada un nuovo concetto di virtualizzazione.

Quali sono per le aziende i principali vantaggi di questi prodotti?

Prima di tutto permettono di adottare l’infrastruttura sotto forma di servizio (IaaS), e quindi di beneficiare direttamente dei vantaggi offerti dal cloud stesso. Consentono inoltre di migliorare e snellire i processi IT di qualsiasi azienda, oggi spesso limitati nella gestione dei carichi e della velocità, rendendo l’infrastruttura più agile, flessibile e nello stesso tempo affidabile. Vi sono anche benefici sulla diminuzione dei costi di licenza, permette disaster recovery e business continuity immediati, e molto altro ancora, compresa una efficace sicurezza dei dati.

Come porta BCLOUD sul mercato queste soluzioni? A chi vi rivolgete?

La nostra attività è basata sulla ricerca di soluzioni software defined di ultima generazione (come Asigra, Cloudian, e Infinidat, gli altri brand da noi commercializzati), che offriamo con valore aggiunto per chi ha nel cloud il proprio core business come service provider, system integrator e aziende sia pubbliche che private. Per le soluzioni OpenStack e Docker, abbiamo una partnership con Red Hat e Lenovo (che hanno stretto un accordo per fornire insieme i loro hardware e software), player con cui lavoriamo a stretto contatto per proporre ai nostri clienti una piattaforma cloud e Software Defined IT solida e in continua evoluzione, corredata da servizi di pre e post vendita di elevata qualità.
Nel dettaglio, nelle principali tecnologie di datacenter proponiamo Red Hat Enterprise Linux OpenStack Platform, un prodotto IaaS altamente scalabile che offre una base di cloud privato di OpenStack aperta, flessibile ed enterprise-ready, ottimizzata e integrata con Red Hat Enterprise Linux insieme all’architettura cloud di riferimento di Lenovo composta da uno dei più completi e scalabili portfolio server sul mercato che riteniamo essere una solida base per l’implementazione di un cloud privato.
Attraverso OpenShift, basata sulla tecnologia Docker, offriamo la PaaS di RedHat che fornisce agli sviluppatori e ai reparti IT delle organizzazioni una piattaforma cloud per un rapido sviluppo e per la messa in produzione delle nuove applicazioni, in ambiente sicuro e altamente scalabile.
Ci definiamo un Software Defined IT Competence Center e insieme ai nostri partner lavoriamo ogni giorno per portare queste soluzioni nelle aziende ad alto tasso tecnologico che non temono il cambiamento.