Amazon Web Services Federico Bianco Levrin, Enrico Cauda, Luca Costabello, Pietro Gioè, Simone Loi

Pagina creata da Dario Moroni
 
CONTINUA A LEGGERE
Amazon Web Services

Federico Bianco Levrin, Enrico Cauda, Luca Costabello, Pietro Gioè, Simone Loi

 Sintesi

     La tecnologia del Cloud Computing sta rivoluzionando non solo i meccanismi di fruizione e
     gestione del software, ma anche la catena di produzione e la struttura del mercato sia del
     software che del hardware. La remotizzazione di servizi ottenuta con infrastruttura cloud
     consente di eseguire applicazioni tradizionali evitando l’installazione del software sui computer
     utente e sfruttando la potenza di calcolo del provider. Per gli utenti corporate, questa soluzione
     consente di ridurre notevolmente i costi e gli oneri organizzativi derivanti dalla gestione e
     manutenzione delle reti e del hardware. Amazon, gigante del retailing online, è impagnata in
     una complessa operazione di diversificazione che mira a posizionarla nel mercato nascente
     come provider di Cloud Computing, attraverso una divisione dedicata: Amazon Web Services
     (AWS). La scelta di entrata di AWS consiste nel fornire principalmente potenza computazionale
     e di storage, mentre altri concorrenti puntano sull’offerta di servizi integrati più sofisticati. Quali
     margini di sostenibilità ha il business e cosa determinerà il successo dei nuovi players?

Parole chiave: cloud computing, disruptive technology, diversificazione strategica, early entry

Condizioni d’uso:

                Questo Caso di Studio è materiale didattico creato nell’ambito delle attività di ricerca
    dell’Innovation Studies Group del Politecnico di Torino e viene rilasciato sotto una licenza
    Creative Commons 2.5 italia, che consente a chiunque l’uso e la riproduzione libera e illimitata,
    a condizione di mantenere il materiale il testo nella sua forma originaria (no lavori derivati) e
    l’attribuzione agli autori.
    Le informazioni contenute nel presente documento provengono interamente da fonti pubbliche e
    tutti i riferimenti sono citati nel testo. La serie di Casi di Studio in Innovazione è stata creata per
    finalità puramente didattiche. Pertanto, le informazioni contenute nel testo possono essere
    semplificate e non necessariamente complete e accurate. In nessun caso il seguente documento
    deve essere inteso come materiale informativo ufficiale su istituzioni, enti, imprese e società a
    cui si riferisce.
    Tutte le opinioni espresse sono quelle degli autori e non necessariamente riflettono quelle dei
    relatori, dell’Innovation Studies Group o del Politecnico di Torino.
    L’utilizzo di questo materiale è consentito limitatamente al rispetto di queste condizioni ed è
    inteso che gli utilizzatori abbiano letto ed accettato le presenti condizioni d’uso. Gli autori non
    sono responsabili per usi diversi da quelli indicati.
    Per download, informazioni e condizioni d’uso, consultare:
    http://is.polito.it/business_cases.html
ISBuC Innovation Studies Business Cases

 Amazon Web Services

Amazon Web Services

La tecnologia

    La tecnologia Cloud Computing ha le potenzialità per trasformare parte dell’industria IT,
    cambiando sostanzialmente il modo di progettare e di distribuire sia l’hardware che il software.
    Con il termine Cloud Computing ci si riferisce alla messa a disposizione da remoto di una serie di
    risorse e servizi informatici, a cui gli utenti possono accedere in varie modalità, attraverso la
    rete. Il termine Cloud viene utilizzato appunto come metafora di Internet ed è un'astrazione che
    nasconde la complessità delle infrastrutture che stanno alla base della rete.

    Nel Cloud Computing le risorse sono scalabili, virtualizzate e fornite come un servizio da remoto.
    Il generico utente non necessita del controllo dell’infrastruttura interna al Cloud, ma diventa un
    semplice fruitore delle risorse messe a disposizione da terzi. In particolare, il termine Cloud
    Computing si riferisce sia alle applicazioni fornite come servizi dai Software as a Service (SaaS)
    Provider, sia alla messa a disposizione di hardware nei datacenter dei provider (Utility
    Computing). Per rendere più concreta la definizione, con un esempio relativo all’utilizzo di
    applicazioni software, il SaaS consiste nel consentire a ciascun singolo utente di utilizzare un
    servizio –ad esempio un comune software- senza acquistare, trasferire, installare e inizializzare
    il programma sul proprio computer, ma solo accedendovi attraverso un’interfaccia web. Questo
    consente all’operatore di lavorare evitando non solo l’installazione, l’aggioramento e la
    manutenzione del software, ma anche l’impiego di capacità di calcolo e di memoria sul
    computer locale. Nello stesso tempo, la fruizione attraverso un interfaccia browser o simile
    elimina i problemi di compatibilità fra il software e il sistema operativo che l’utente utilizza in
    locale. Il SaaS è appunto il modello di distribuzione del software in cui il produttore rende
    accessibile l’applicazione non più attraverso un programma scaricato o installato da supporto
    CD, ma interamente attraverso il web. L’utente paga generalmente l’utilizzo del software,
    anziché il possesso della programma e la relativa licenza d’uso.

    Similmente, è possibile acquistare e fruire da remoto non solo servizi e software di terzi, ma
    anche semplicemente capacità di calcolo e di memoria. Quest’ultimo servizio è comunemente
    chiamato “Utility Computing”. Lo Utility Computing è quindi un modello di provisioning in cui il
    Service Provider mette a disposizione del cliente delle risorse di calcolo e di archiviazione. Le
    risorse, quando necessarie, sono accessibili su richiesta e addebitate sulla base dell’effettivo
    utilizzo. Il termine Utility ricorda l’analogia con i servizi di pubblica utilità (elettricità, acqua o
    gas) che hanno la caratteristica di soddisfare la fluttuante domanda dei clienti e di prevedere il
    pagamento delle risorse effettivamente utilizzate. Questo approccio, detto anche “pay per use”
    o “metered service”, sta diventando sempre più importante all’interno del mercato IT.

    Quando un’infrastruttura Cloud che eroga calcolo e memoria (utility computing) è messa a
    disposizione pubblicamente in modalità pay as you go, essa è detta Public Cloud. Le Private
    Cloud non sono invece accessibili pubblicamente ma appartengono ad aziende, università,
    governi od organizzazioni [12].

    I vantaggi del SaaS per gli utilizzatori finali (aziende o privati) sono chiari: possibilità di
    accedere a servizi virtualizzati sempre e ovunque in modalità pay per use; azzeramento dei
    costi di gestione e manutenzione del software; flessibilità e scalabilità dei servizi utilizzati [12].

                                                          2
I vantaggi del cloud per i produttori di software consistono nell’avere la possibilità di eliminare
     meccanismi di distribuzione di programmi e aggiornamenti sofisticati e di eliminare i datacenter
     dalle proprie competenze affidandosi alla capacità di calcolo messa a disposizione Utility
     Provider specializzati. I datacenter sono visti dai potenziali fornitori di SaaS come
     un’incombenza in quanto costosi e difficilmente scalabili e dimensionabili. La domanda di
     capacità computazionale è infatti molto fluttuante e di conseguenza l’hardware deve
     generalmente essere sovradimensionato per far fronte ai picchi di richieste. Si pongonoinoltre
     problemi di sicurezza e di manutenzione molto forti. Questo modo di operare rende i sistemi
     implicitamente inefficienti ed economicamente dispendiosi. Quindi il cloud offre enormi
     opportunità ai produttori di software di ridurre i costi di gestione, esternalizzando alcune fasi del
     proprio processo produttivo e derogandole a imprese esterne specializzate il proprio core
     business.

     Nello stesso tempo, la diffusione dei Cloud Provider, abbattendo le barriere all’entrata costituite
     dagli asset complementari degli incumbent del software, come costosi datacenter, reti di
     distribuzione e vendita al dettaglio dei programmi e standard e compatibilià dei sistemi
     operativi, rappresenta una minaccia per la posizione competitiva dei colossi del software e
     un’opportunità di ingresso di nuovi entranti.

     Per questi motivi, il Cloud Computing sembra potenzialmente in grado di avere sul software lo
     stesso impatto che anni fa la nascita di aziende specializzate nella produzione di semiconduttori
     ha avuto nel settore hardware. Una linea di produzione di semiconduttori costa attualmente più
     di 3 miliardi di dollari [12], e solo una manciata di giganti industriali con enormi volumi d’affari
     come Intel e Samsung possono sopportarne i costi fissi. La maggior parte delle altre società
     produttrici di chip, come ad es. nVidia, acquistano i semiconduttori da aziende terze
     specializzate come TSMC (Taiwan Semiconductor Manufacturing Company e fanno invece del
     design innovativo la propria core competence.

     Allo stesso modo, i vantaggi derivanti dall’affidarsi ad un Cloud Provider potrebbero sfociare
     definitivamente in una rivoluzione del mercato della distribuzione e assistenza del software. La
     grande promessa è quella di eliminare le inefficienze dei meccanismi di distribuzione del
     software e dell’utilizzo dell’hardware attuali, che attualmente gravano sui clienti. Elenchiamo di
     seguito i principali vantaggi offerti agli utilizzatori dei servizi di SaaS via cloud [12]

Eliminazione dei costi fissi del software

     I costi legati all’utilizzo del servizio sono generalmente calcolati in base al consumo e sono quasi
     esclusivamente variabili. Non sono quindi necessari investimenti upfront.

Scalabilità delle risorse di computazione

     I meccanismi economici di pay per use relativi alla capacità di calcolo sono intrinsecamente
     associati alla flessibilità e scalabilità del servizio richiesto. L’hardware è facilmente riconfigurabile
     in base alle necessità del momento. Non è quindi necessario dimensionare il sistema a priori.

Assenza dei costi fissi di installazione, gestione e manutenzione dell’ infrastruttura

     Gran parte dell’hardware e del software viene esternalizzato ed acquisito dall’esterno. La
     gestione, l’aggiornamento e la manutenzione diventano quindi attività a carico del Service
     Provider.

     Il programmatore diventa un semplice cliente che utilizza applicazioni messe a disposizione in
     modalità pay per use dal Service Provider. Aziende dedicate possono specializzarsi nelle
     forniture temporanee e flessibili. Ad esempio l’azienda indiana Zoho [12] mette a disposizione
     dell’utente una suite di applicazioni che includono programmi di scrittura (testo, fogli di calcolo,
     presentazioni) e di gestione della posta elettronica e della rubrica. Tutte le applicazioni sono
     fornite come pagine web e non richiedono un particolare sistema operativo, installazioni o altro.

     SalesForce, GoogleApp, Taleo e NetSuite rappresentano altri esempi di società che forniscono
     software on demand sul web.
                                                                 3
Organizzazione del lavoro per piattaforme

      Molte delle aziende che forniscono applicazioni on demand hanno anche sviluppato dei servizi di
      piattaforma. La piattaforma è una sorta di ambiente di sviluppo in cui aziende partner o altri
      utenti possono sviluppare i propri SaaS. La piattaforma costituisce quindi un’interfaccia tra
      l’hardware ed il software da sviluppare. La piattaforma Force dell’azienda SalesForce, ad
      esempio, permette agli abbonati di sviluppare le proprie applicazioni e di accedervi da Internet.

      GoogleAppEngine e Microsoft Azure rappresentano altri esempi di aziende che forniscono
      piattaforme. GoogleAppEngine si rivolge esclusivamente allo sviluppo ed alla fornitura delle
      tradizionali applicazioni web basate sul meccanismo request-reply ed implementa
      automaticamente la scalabilità delle risorse sia computazionali sia di archiviazione.

      GoogleAppEngine è un servizio che permette agli sviluppatori di scrivere applicazioni e di
      ospitarle poi sui server di Google. Il servizio costa tra i 10 e i 12 centesimi di dollaro per “Cpu
      core hour” e tra i 15 e i 18 centesimi di dollaro per gigabyte di storage [21]. Le Google Apps
      hanno 10 milioni di utenti e più di mezzo milione di aziende clienti, tra cui General Electric e
      Procter & Gamble .

      Microsoft Azure rappresenta una piattaforma più flessibile ed astratta di GoogleAppEngine in
      quanto permette, tramite la libreria .NET, lo sviluppo di svariati tipi di applicazioni. Il sistema
      supporta quindi applicazioni general purpose piuttosto che esclusivamente web application.

Flessibilizzazione dei costi e degli investimenti in infrastrutture

      L’assenza di grossi investimenti upfront rende gli investimenti meno rischiosi rispetto al
      tradizionale metodo di approvvigionamento dell’hardware. Si ha la possibilità di determinare in
      maniera precisa i costi del settore IT evitando di fare assunzioni sui cicli di vita dell’hardware e
      del software.

      Gli elementi chiave che caratterizzano il Cloud Computing sono la creazione di enormi
      datacenter gestiti dai Cloud Provider e la conseguente separazione dell’hardware dal software,
      attraverso l’introduzione di sistemi operativi distribuiti (operazione che viene detta
      virtualizzazione). I fornitori dell’infrastruttura forniscono nello specifico lo spazio fisico di
      archiviazione e la capacità di calcolo che rendono realizzabili i servizi e le applicazioni descritte
      sopra.

      L’attore principale di questo segmento è sicuramente Amazon Web Services, la quale fornisce i
      servizi EC2 (Elastic Cloud) e S3 (Storage). AWS offre la propria infrastruttura per far eseguire
      le applicazioni e permette di adattare la capacità di elaborazione on demand in base alle proprie
      esigenze.

      Il costo orario di un servizio di calcolo e hosting è tipicamente molto basso, da 10 a 80
      centesimi di dollaro l’ora [20]. La sua caratteristica principale è quella di permettere all’utente di
      aumentare o ridurre le capacità richieste nel giro di pochi minuti. Una relazione elastica ma
      soprattutto istantanea, importante per ridurre i costi, visto che sono addebitati (sulla carta di
      credito) solo i minuti effettivamente utilizzati ed il relativo traffico web.

 La storia di Amazon

      Amazon è un’azienda americana di e-commerce con sede a Seattle, nello stato di Washington. È
      il più grande rivenditore online americano. Viene fondata da Jeff Bezos nel 1994 e lanciata
      online nel 1995. Nata come negozio di libri on-line, sotto il nome di “Cadabra.com”. Ben presto
      questo nome viene abbandonato per far posto al noto “Amazon” dal nome del Rio delle
      Amazzoni, il più grande e lungo fiume al mondo. Quasi subito diversifica le sue linee di prodotto
      verso VHS, DVD, CD musicali e MP3, software per computer, video games, cibo, giocattoli ecc.

                                                                      4
Nel 1994 è registrata nello stato di Washington, ma inizia le sue attività solo nel luglio del 1995.
Nell’anno successivo cambia stato e sposta la sua sede in Delaware. Amazon entra nel mercato
azionario nel maggio 1997. Il piano aziendale di Amazon prevede di non generare profitti per i
primi 4-5 anni di attività. Alla fine degli anni 90 Amazon cresce molto più lentamente delle altre
società di internet, scatenando non pochi malumori da parte degli azionisti. Quando però, alle
porte del nuovo millennio, scoppia la bolla delle “dot-com”, Amazon è una delle poche Internet
company a non fallire, raggiungendo il suo primo periodo di profitto solo nel quarto trimestre del
2001: 5 milioni di dollari, solo 1 ¢ per azione, con entrate di oltre 1 miliardo di dollari. Nel 1999
il Time Magazine elegge Bezos come uomo dell’anno, riconoscendo il successo di Amazon nell’e-
commerce.

In seguito i profitti continuano a crescere: nel 2003 il reddito netto è di 35,3 milioni di dollari,
588.50 milioni di dollari nel 2004, 359 milioni di dollari nel 2005. Le entrate aumentano in
particolare grazie alla diversificazione dei prodotti venduti e alla presenza sul mercato
internazionale [23]. Il 21 novembre 2005 Amazon entra nell’indice S&P 500 mentre nel 2008
viene elencata addirittura nell’indice S&P 100.

La sede principale di Amazon è a Beacon Hill, Seattle, Washington. In Europa ha sedi a Monaco
di Baviera, Parigi, Dublino, Slough in Inghilterra. In estremo oriente ha sedi a Tokyo e Pechino.
Oltre ad amazon.com, esistono siti separati in Canada, Gran Bretagna, Germania, Francia, Cina
e Giappone. Per quanto riguarda invece i centri di sviluppo sofware, Amazon opera in diverse
location, ma la maggior parte dello sviluppo è nella sede principale di Seattle.

Nei primi anni di vita, uno dei riconosciuti punti di forza di Amazon rispetto ai concorrenti iniziali,
come Borders, è di possedere e gestire efficacemente un sistema evoluto di customer
management, oltre ad un enorme apparato logistico e di spedizione globale, che consta di
numerosi magazzini e centri di smistamento sul pianeta.

Una serie di funzioni, caratteristiche e servizi di amazon.com ne decreteranno il successo di
pubblico e si diffonderanno in seguito come pratiche standard della vendita virtuale. Fra queste
vanno ricordate, la capacitò di consentire ricerche per argomento evolute, basate non solo su un
sistema di catalogazione interno, ma anche sulle ricerche e sugli acquisti dei clienti precedenti.
La creazione di un area clienti con memoria individuale degli acquisti, delle preferenze e degli
oggetti visionati in passato consente il superamento del problema della spersonalizzazione degli
acquisti. Amazon inoltre è fra i primi a incoraggiare le recensioni e il rating dei prodotti da parte
degli acquirenti, favorendo la creazione di una community virtuale. Il one-click buy e lo sviluppo
di altri servizi di packaging e di gestione dell’ordine a distanza contribuiscono al consolidamento
del successo negli anni successivi.

Negli anni seguenti il catalogo di Amazon si arricchisce di nuovi prodotti non editoriali e
l’operatore si integra come piattaforma di servizi di vendita non solo dei proprio prodotti, ma
anche di altri soggetti, compreso editori in concorrenza. Un Associate è un venditore
indipendente che riceve una commissione per indirizzare, attraverso link sui propri siti, al sito di
Amazon.com per il perfezionamento dell’acquisto. E’ stimato che il 40% delle vendite di
Amazon.com è attualmente da attribuirsi agli “Associates” e a rivenditori esterni. A livello
mondiale Amazon conta più di 900.000 membri al loro programma di affiliazione [24]. Gli
associates possono accedere al catalogo Amazon direttamente dai loro siti grazie all’utilizzo del
servizio XML “Amazon Web Services”. Questo servizio sarà di importanza fondamentale nella
successiva decisione di Amazon di diversificare entrando nel mercato del Cloud Computing.

A differenza di Ebay, un altro famosissimo portale per l’e-commerce, Amazon gestisce
internamente tutti i pagamenti e la relativa sicurezza nelle transazioni. Nel settembre 2002,
Amazon lancia “Amazon Visa Card”, presto seguita dal servizio di autenticazione ed acquisto
facilitato per i clienti Amazon.

Amazon.com crea anche Auctions, il suo servizio di aste on-line nel marzo 1999 senza riuscire
però a superare Ebay. Amazon Auctions è seguita dal lancio di un altro servizio di commercio
elettronico chiamato zShops nel settembre 1999 e da una collaborazione con Sotheby’s
(sothebys.amazon.com) in novembre in seguito fallita. Sebbene zShops non riesce a resistere,

                                                      5
prepara il grande successo di Amazon Marketplace, lanciato nel 2001. La nuova piattaforma
   permette ai clienti di vendere libri, CD, DVD e altri prodotti sia nuovi che usati. Amazon
   Marketplace rivaleggia oggi con half.com di eBay.

   Queste scelte di diversificazione fanno leva su una visione strategica basata sulle competenze.
   Nelle parole di Adam Selippsky, Web Service Product Manager di Amazon: "[...] of course this
   has nothing to do with selling books, but it has a lot to do with the same technology we are
   using to sell books." [28]

   Grazie a queste strategie di costante riposizionamento del portafoglio d’offerta, Amazon matura
   un portafoglio di competenze rivendibile in altri business. Il vasto know-how tecnologico di
   piattaforma acquisito da Amazon nel corso degli anni, in particolare per quanto riguarda la
   gestione delle transazioni con gli associates ed i rivenditori esterni, è visto come chiave di
   ingresso per una molteplicità di business, potenzialmente a maggior valore aggiunto della
   semplice rivendita di libri o prodotti a catalogo.

   Seguendo questa strategia di costante ingresso in nuovi business, basata sulle competenze
   interne, nel 2006 [25] Amazon decide di muovere i primi passi in esplorazione del pionieristico
   mercato del Cloud Computing, con il lancio del servizio di storage online chiamato S3. Un
   numero illimitato di file, di dimensioni comprese tra 1 byte e 5 giga, possono essere
   memorizzati in S3 e distribuiti via HTTP o BitTorrent. Il servizio costa 15 centesimi di dollaro per
   gigabyte memorizzato al mese e 20 centesimi di dollaro per gigabyte trasferito al mese. Sempre
   nel 2006 Amazon lancia EC2 ("Elastic Compute Cloud") [25], una site farm virtuale dove gli
   utenti possono usare l'infrastruttura di Amazon, ad alta stabilità, per l’esecuzione delle proprie
   applicazioni (come ad esempio simulazioni). Nel 2008 [25], Amazon migliora il servizio
   aggiungendo Elastic Block Store (EBS), offrendo una capacità di memorizzazione persistente per
   Amazon EC2 ed istanze di Elastic IP addresses, indirizzi IP statici progettati ad-hoc per le
   caratteristiche dinamiche del Cloud Computing. Nel 2008 viene lanciato EC2 Windows Client:
   una versione di EC2 in grado di eseguire Microsoft Windows Server e Microsoft SQL Server [28].
   Ancora in fase di testing è l’applicazione di WebStore, in grado di creare un sito web e-
   commerce personalizzato con foto e propri marchi utilizzando la tecnologia AWS.

   Terminata una fase esplorativa iniziale, alla fine del 2008 Amazon scioglie le riserve e dichiara
   agli investitori che il Cloud Computing diventerà il suo "core business" entro il 2012 [26].

Analisi del mercato e della concorrenza

   La nascita e lo sviluppo del fenomeno Cloud Computing può essere considerata una innovazione
   radicale all'interno del mondo IT. Con ogni probabilità, la tecnologia cloud ha inoltre il potenziale
   per agire come disruptive technology nei confronti dell’industria della produzione e distribuzione
   del hardware. Per giustificare questa affermazione bisogna tenere conto del nuovo scenario che
   si andrà a delineare con l’avvento del Cloud Computing. Si prevede infatti una redistribuzione
   dei ruoli principali degli attori della catena di produzione, ossia delle software company, degli
   internet service providers e dei produttori di hardware. Per fare qualche esempio pratico, le
   società che tradizionalmente offrivano SaaS potrebbero optare per appoggiarsi a loro volta ad
   un cloud provider per esigenze di calcolo e di storage. Analogamente, l'utente finale potrebbe
   mutare le sue esigenze in fatto di hardware e di banda. Infatti, se da un lato non sarebbe più
   necessario possedere capacità di calcolo elevatissime per applicazioni standard poiché
   funzionerebbero in cloud, dall'altro aumenterebbe la necessità di traffico dati da e verso il cloud.
   La sicurezza e la stabilità di accesso delle reti diventerebbero cruciali. I computer, le applicazioni
   e i servizi adatti a questo tipo di attività potrebbero quindi essere assai diversi da quelli che
   conosciamo attualmente. Inoltre, in questo scenario gli internet service provider dovranno
   fornire connessioni più rapide investendo in nuove tecnologie.

   Tutte queste considerazioni rendono la scelta di posizionamento di AWS particolarmente
   delicata. Appare evidente che i rapporti di forza all’intrno delle filiere saranno fortemente
   scombussolati e il manament di AWS deve prestare particolare attenzione a fare scelte mirate e
   lungimiranti. La situazione attuale della filiera si può sintetizzare nell’analisi che segue.

                                                        6
Rivalità interna e potenziali entranti.

     I potenziali candidati con uno specifico interesse a con le potenzialità ad entrare nel settore sono
     moltissimi. Il numero delle imprese nuove e degli inclumbent che si affacciano su questo
     mercato sta aumentando ed è ancora destinato a crescere. Alcune di queste aziende sono start-
     up, appoggiate da importanti Venture Capital. E’ facile immaginare che il successo sara’
     determinato dalla disponibilità di asset e di competenze chiave per gestire il business. Le scelta
     di posizionamento delle imprese ai vari livelli (infrastrutture, piattaforme, appliazioni) riflette
     non solo scelte strategiche id base, ma anche disponibilità di investimento. Il taglio
     dell’investimento richiesto è tanto maggiore quando si passa dalle applicazioni alle piattaforme
     alle infrastrutture.

     Dal punto di vista delle infrastrutture, questo mercato si distingue per avere costi fissi molto
     elevati. Le imprese in competizione devono affrontare fortissimi investimenti iniziali (i.e. enormi
     datacenter ed architetture di rete) che si giustificano soprattutto in ottica di espansione della
     modalità cloud. Di converso, le scelte di pricing dei serivizi ai SaaS provider sono cruciali perché
     influiranno sulla rapidità di diffusione della modalità [1][2]. Il dimensionamento delle risorse va
     tarato sui picchi. Le risorse richieste hanno una forte e rapida variazione temporale, soggetta a
     picchi giornalieri e settimanali. In alcuni momenti della giornata è tipicamente necessaria
     un'altissima velocità di elaborazione, mentre, mediando nel tempo, la velocità di elaborazione
     può essere più contenuta, generando lunghe fasi di sottoutilizzo. Tuttavia, la possibilità di
     sfruttare le risorse per fornire diversi servizi anche in parallelo permette allo utility provider di
     limitare fluttuazioni di capacità richieste.

     Le tecnologie di trasferimento dei dati sono cruciali in tutta la filiera. Le moderne applicazioni
     richiedono un flusso di dati sempre maggiore. A prezzi di circa $100 per terabyte trasferito, i
     costi di trasferimento possono rappresentare un serio problema, tanto che si è presa persino in
     considerazione la possibilità di spedire fisicamente i dischi con i dati, evitando di utilizzare la
     rete. I clienti e i cloud provider devono quindi pensare necessariamente alla gestione del traffico
     ad ogni livello per minimizzare i costi [8]. AWS ha sviluppato un servizio, detto Cloudfront, che
     permette agli sviluppatori e alle aziende di distribuire i contenuti agli utenti finali con un'elevata
     velocità di trasferimento e bassa latenza, utilizzando una rete di tipo globale basata su edge
     locations (le richieste sono instradate verso la location più vicina, cosicché il contenuto sia
     consegnato con prestazioni di trasferimento ottime).

     Una delle sfide più difficili in ambito Cloud Computing è per l'appunto la correzione degli errori in
     sistemi distribuiti. Spesso infatti non è possibile riprodurre i difetti in configurazioni su scala più
     ridotta, cosicché il debug va eseguito nei datacenter costringendo se necessario a periodi di
     inattività. Una opportunità quindi sarà certamente migliorare l'affidabilità delle macchine virtuali
     utilizzate nel Cloud Computing [9]. Si è dimostrato che macchine virtuali multiple, su cui si basa
     il Cloud Computing, possono condividere CPU e memoria in modo molto efficiente, tuttavia vi è
     il problema dell’impredicibilità delle prestazioni e dei bug distribuiti, cioè difetti di funzionamento
     relativi alle particolari proprietà di un sistema cloud, che non è concentrato in un unico
     calcolatore come accade in un sistema di calcolo tradizionale [10].

     Un ulteriore problema cruciale è quello dell’affidabilità, protezione e stabilità dei servizi di
     storage e accesso [5]. Se il servizio non è funzionante nel momento in cui il cliente lo deve
     utilizzare, quest'ultimo avrà inevitabilmente disagi e danni, con conseguente cattiva pubblicità
     per il fornitore. La proprietà e custodia di dati di terzi pone immaginabili rischi e responsabilità
     legali in caso di perdita o danneggiamento. Per esempio, l'8 agosto 2008, il servizio di storage
     online chiamato The Linkup chiuse dopo aver perso i dati del 45% dei suoi utenti. Di
     conseguenza i 20.000 utenti di The Linkup furono costretti con urgenza ad adottare soluzioni
     alternative.

     Le aziende che operano su questo mercato devono necessariamente possedere know-how e
     tecnologie d’avanguardia nella gestione di grandi masse e flussi di dati. In questa fase
     preliminare, i grandi incumbent del settore (e.g. IBM, Google, Microsoft) o le imprese che che
     hanno già operato utilizzando grandi datacenter, sono avvantaggiati, poiché possiedono
     tipicamente in house le core technologies utili per cominciare ad erogare servizi di tipo cloud. In

                                                           7
una fase di mercato successiva, queste competenze potrebbero costituire una notevole barriera
      all’entrata nei confronti di potenziali entranti.

      Esistono infine anche una serie di problemi legati al quadro normativo e legale che limitano
      l’utilizzo del cloud o comunque pongono limiti alla sua diffusione. In molte nazioni le leggi
      stabiliscono che i provider mantengano i dati dei clienti e materiale coperto da copyright
      all'interno dei confini dello Stato. Questo vincolo è difficilmente conciliabile con l’architettura di
      Cloud Computing, che prevede invece la distribuzione dei dati sul globo [7]. Stante l’attuale
      quadro normativo, i cloud provider devono poter essere in grado di affrontare questi vincoli. Per
      esempio, AWS fornisce servizi S3 localizzati fisicamente in Europa e negli Stati Uniti,
      permettendo ai cliente di mantenere i loro dati ovunque desiderino.

Prodotti Sostitutivi

      I classici software a pacchetto, in esecuzione sulle macchine di proprietà del cliente, che
      costituiscono lo standard in uso fino ad oggi, sebbene affetti da problematiche quali affidabilità,
      sicurezza, resistenza ad attacchi esterni, manutenzione, ecc., costituiscono sempre
      un’alternativa concreta ai servizi cloud. La maggiore resistenza alla loro sostituzione consiste
      nella indipendenza dalla connessione alla rete, condizione che potrebbe mantenerli in uso,
      almeno per aree geografiche o applicazioni particolari, forse per molto tempo a venire. E’
      evidente che la disponibilità, l’affidabilità e i costi della banda di rete offerti nei vari mercati
      geografici sul globo condiziona fortemente la dimensione effettiva del mercato potenzialmente
      interessato a servizi di cloud computing.

Buyer Power

      I clienti aziendali in questa fase rappresentano per il Cloud Computing il mercato principale,
      anche se l’importanza dell’utenza privata è destinata a crescere. Per il momento il mercato è
      caratterizzato da transazioni infrequenti con grandi clienti business, oppure con piccole e medie
      società di servizi informatici o virtuali, spesso in fase di lancio, che scelgono il cloud fin dall’inizio
      come unico canale di distribuzione. Quest’utenza è tipicamente interessata a prestazioni
      tecniche elevate, è tipicamente in grado di collaborare a soluzioni tecniche sofisticate e richiede
      spesso soluzioni personalizzate.

      Attualmente le API su cui si basa il Cloud Computing sono proprietarie e non sono in vista
      operazioni di standardizzazione. Questo è particolarmente vero per gli erogatori di piattafome.
      Di conseguenza, una volta stipulato il contratto di servizio con il cloud provider, passare da un
      provider ad un concorrente può essere particolarmente oneroso per il cliente e ciò ha fatto
      desistere alcune società dall'adottare il Cloud Computing. Per il cloud provider, il possesso di API
      proprietarie è cruciale per innescare meccanismi di lock-in. Nello stesso tempo, è molto
      importante accaparrarsi i clienti al primo ingresso, creando una piattaforma standard con una
      larga base di clienti [6].

Servizi complementari

      Oltre alla disponibilità e al costo della banda di connessione di rete, ci sono tipicamente altri
      servizi che gravano sul costo del cloud per l’utente finale e che quindi influenzano l’adozione.

      Le licenze software pongono dei vincoli sulle piattaforme supportate, obbligando gli utenti a
      pagare il programma e a sostenere una tariffa di manutenzione annuale. Molti cloud provider,
      dunque, basano le loro implementazioni su soluzioni open source al fine di ridurre i costi e
      ottenere i benefici tipici di questo paradigma. Gli attuali meccanismi di licensing, sia nel caso
      dell’open source che del software proprietario, non si integrano in modo soddisfacente con i
      servizi cloud. Ad esempio, Microsoft e AWS attualmente offrono licenze di tipo “pay-as-you-go”,
      cioè pagamento a seconda dell'utilizzo per Windows Server e Windows SQL Server su EC2.
      Un'istanza eseguita EC2 su Microsoft Windows costa $0.15 all'ora invece dei tradizionali $0.10
      all'ora della versione open source. Questo tipo di pagamento a tempo o a utilizzo di risorse è
      poco compatibile con i sistemi di registrazione dei conti quadrimerstrali tradizionali, basati
      su meccanismi di acquisto e vendita che avvengono in un determinato momento e una

                                                             8
tantum. Per quanto riguarda i Cloud providers, l'opportunità è quella di offrire piani prepagati
     per un uso bulk (grandi volumi) che possono essere venduti scontati. Ad esempio, Oracle
     potrebbe vendere 100.000 istanze-ora di utilizzo Oracle che potrebbero essere utilizzate nei
     prossimi due anni a prezzo inferiore rispetto al prezzo che avrebbe pagato l'utente per 100.000
     ore di per sé.

Supplier Power

     Per considerare il ruolo dei fornitori nel mercato del Cloud Computing bisogna analizzare
     congiuntamente gli asset necessari all'erogazione dei servizi e la particolare architettura
     necessaria in ambito Cloud Computing.

     La disponibilità di energia elettrica è basilare per fornire un servizio di Cloud computing. Si
     rende indispensabile reperire energia elettrica possibilmente con contratti agevolati data la
     grande quantità necessaria. Inoltre è fondamentale ottenere adeguate garanzie di continuità del
     servizio. A tale proposito è comunque necessario disporre di grandi gruppi di continuità per
     tamponare eventuali interruzioni dell’erogazione dell’energia elettrica [3][4].

     Gli impianti che vengono utilizzati sono sempre molto soggetti al problema del
     surriscaldamento, quindi si rendono necessari investimenti per il raffreddamento degli apparati.
     Nonostante la necessità di disporre di impianti in diverse regioni geografiche è più conveniente
     costruirli in siti laddove le condizioni climatiche siano naturalmente favorevoli, ossia in zone
     fredde. Grazie a ciò viene garantito un risparmio considerevole di energia elettrica necessaria al
     raffreddamento delle apparecchiature [3][4].

     Per quanto riguarda l'hardware, i produttori sono generalmente disposti a realizzare e produrre
     su vasta scala apparecchiature ad hoc per utilizzo Cloud Computing. Questo perché il Cloud
     Computing è visto come un mercato in espansione e può rappresentare un'ottima fonte di
     guadagno. In questo caso ci si può accordare anche per soluzioni personalizzate.

 Conclusioni

     Amazon si è trovata in una posizione privilegiata per l’ingresso nel mercato dei servizi cloud. La
     florida situazione finanziaria di Amazon, ottenuta grazie alle ottime performance della divisione
     retail, ha permesso di investire in misura adeguata nel settore dei servizi cloud. Si può
     affermare che AWS è stata senza dubbio un attore fondamentale nello sviluppo non solo delle
     tecnologie cloud-based, ma anche nella messa in campo di soluzioni tariffarie innovative.

     Nonostante numerose dichiarazioni d’intenti, poche compagnie negli scorsi mesi hanno mosso
     passi concreti per l’ingresso nel nuovo mercato. Tuttavia probabilmente nei primi mesi del 2010
     si verificherà un massiccio ingresso in campo di altri concorrenti [14].

     I servizi cloud di AWS, ed in particolare EC2 e S3, hanno superato la fase di beta testing nel
     luglio 2008, raggiungendo una penetrazione di mercato che il CTO Werner Vogels definisce
     “soddisfacente”: a febbraio 2009 risultano registrati circa 44.000 clienti, molti dei quali sono
     piccole e medie imprese [15]. Fra i clienti di grandi dimensioni ci sono Nasdaq, Philips e New
     York Times. AWS sta funzionando da vero e proprio asset di base per lo sviluppo di un gran
     numero di Startup (IT e non) che scelgono di delegare ad Amazon i loro servizi IT, riducendo in
     questo modo i propri costi.

     La tendenza che sembra emergere negli ultimi mesi è di fornire ai clienti finali (siano questi
     consumer o business) una serie di servizi e applicazioni di alto livello (es: Google Apps,
     Microsoft Azure e Office Online) come mostrato in Figura 1. Amazon si trova quindi in una
     situazione delicata: l’approccio seguito negli ultimi due anni si è infatti concentrato sul cosidetto
     layer infrastrutturale, ed i servizi offerti sono stati puramente rivolti alla potenza di calcolo e allo
     storage.

                                                           9
L’imminente discesa in campo di altri Provider (uno su tutti Google) ha sollevato non pochi
dubbi all’interno del management Amazon. In un mercato in cui faranno la loro comparsa player
del calibro di Google e Microsoft, come può AWS mantenere una posizione di primo piano senza
rivedere la propria offerta e adattarla alle richieste del mercato? Al cliente finale è delegato il
compito di occuparsi completamente dello sviluppo di una struttura di erogazione efficiente e
coerente con il proprio business [15]. E’ probabile che nel medio periodo (1-2 anni), la gamma
di servizi offerti andrà fortemente rivoluzionata per soddisfare le richieste di un gruppo
diversificato di clienti, mentre attualmente l’offerta si compone principalemente di capacità
elaborativa e storage grezzi.

                      Figura 1 – Imprese che offrono servizi cloud (Fonte: cloudcomputing.sys-con.com)

Alla luce delle mosse dei concorrenti, mettere a disposizione semplicemente delle risorse, siano
queste di calcolo o di storage, senza costruire uno strutturato ed efficace pacchetto di
applicazioni, potrebbe risultare poco efficace. Il rischio è quello di venire superati dai concorrenti
che possono offrire una serie di servizi più completa. I recenti successi di Salesforce
suggeriscono invece di puntare con decisione verso la creazione di applicazioni pronte
all’utilizzo, con un approccio modulare che permetta al cliente di selezionare solo i blocchi
desiderati e di metterli in campo da subito, senza dover sostenere alcun costo per lo sviluppo
IT.

Molti analisti [15] concordano quindi nel considerare la mancanza di un set di servizi applicativi
rivolti alle imprese come un vero e proprio nodo cruciale della strategia di AWS. Durante gli
ultimi mesi del 2008, Il management di AWS sembra essersi convinto della necessità di offrire
un set di servizi di più alto livello, anche se le competenze richieste per lo sviluppo di
piattaforme non sono disponibili fra le core technologies di Amazon. Nel febbraio 2009 AWS ha
siglato un accordo con IBM [16], che prevede la fornitura di importanti software business-
oriented di IBM su piattaforma Amazon AWS (in particolare il popolare application server
WebSphere e il database manager DB2). Grazie a questo accordo, AWS potrà fornire servizi di
                                                            10
più alto livello orientando il suo obiettivo decisamente verso la sfera B2B. La consolidata
   esperienza di IBM nel campo dei prodotti B2B e la sua consistente penetrazione di mercato,
   potranno permettere ad Amazon di traghettare un considerevole numero di clienti verso la
   propria architettura Cloud (in alcuni casi, sarà anche possibile riutilizzare le licenze IBM già
   possedute dai clienti per ottenere una riduzione del costo orario del servizio cloud [16]).

   L’accordo stretto con AWS fa sorgere alcuni dubbi sulla posizione di IBM che è in parziale
   concorrenza con Amazon sul mercato Cloud, avendo investito in modo massiccio in
   infrastrutture dalla fine del 2007 [17]. Quale motivo può avere spinto IBM ad allearsi con un suo
   apparente competitor diretto? Potenzialmente IBM possiede il necessario know-how e i capitali
   per investire con successo nel settore. Fino a questo momento però, i grandi clienti target di Big
   Blue non hanno però ancora deciso di muoversi verso il Cloud ed è probabile che IBM abbia
   interesse a fare leva sulla base utenti di AWS per aumentare le vendite dei propri software di
   più alto livello [18], anche considerando opzioni di standardizzazione di alcune API e protocolli di
   interfaccia.

Riferimenti bibliografici e fonti

   [1]   Rangan, K. “The Cloud Wars: $100+ billion at stake.” Tech. rep., Merrill Lynch, maggio
         2008.

   [2]   Siegele, L. “Let It Rise: A Special Report on Corporate IT. The Economist”, ottobre 2008.

   [3]   Hamilton, J. “Cost of Power in Large-Scale Datacenters.” November 2008.

   [4]   Hamilton, J. “Cooperative Expendable Micro-Slice Servers (CEMS):Low Cost, Low Power
         Servers for Internet-Scale Services.” In Conference on Innovative Data Systems Research
         (CIDR ’09), gennaio 2009.

   [5]   The Amazon S3 Team, “Amazon S3 Availability Event”, 20 luglio 2008.

   [6]   Brodkin, J. “Loss of customer data spurs closure of online storage service, The Linkup”.
         Network World, agosto 2008.

   [7]   “TC3 Health Case Study: Amazon Web Services..”, consultato il 10 marzo 2009
         http://aws.amazon.com/solutions/case-studies/tc3-health/

   [8]   Garfinkel, S. “An Evaluation of Amazon’s Grid Computing Services: EC2, S3 and SQS” .
         Tech. Rep. TR-08-07, Harvard University, agosto 2007.

   [9]   Gray, J. “Distributed Computing Economics”, 2008

   [10] Bechtolshem, “A. Cloud Computing and Cloud Networking”. talk presso UC Berkeley,
        dicembre 2008.

   [11] Krebs, B. “Amazon: Hey Spammers, Get Off My Cloud! Washington Post”, luglio 2008.

   [12] Armbrust M and others, “Above the Clouds: A Berkeley View of Cloud Computing.”,
        http://d1smfj0g31qzek.cloudfront.net/abovetheclouds.pdf

   [13] “WikiInvest”, consultato il 15 marzo 2009.
        http://www.wikinvest.com/concept/Cloud_Computing

   [14] G. Geelan. “The Future of Cloud Computing”, consultato il 23 febbraio 2009.
        http://cloudcomputing.sys-con.com/node/771947

   [15] “Amazon Web Services”, consultato il 22 febbraio 2008. http://aws.amazon.com

                                                       11
[16] “IBM and AWS”, consultato il 23 febbraio 2009.
     http://aws.amazon.com/solutions/featured-partners/ibm/

[17] “IBM Introduces Ready-to-Use Cloud Computing”, consultato il 18 febbraio 2009.
     http://www-03.ibm.com/press/us/en/pressrelease/22613.wss

[18] “Five Companies Shaping Cloud Computing: Who Wins?”, consultato il 19 febbraio 2009.
     http://itmanagement.earthweb.com/entdev/article.php/11070_3798591_6/Five-
     Companies-Shaping-Cloud-Computing-Who-Wins.htm

[19] “Zoho”, consultato il 15 marzo 2009, http://www.zoho.com

[20] “Amazon, Amazon Elastic Compute Cloud (Amazon EC2)”, consultato il 15 marzo 2009,
     http://aws.amazon.com/ec2/

[21] “RedWriteWeb, Google App Engine Announces Pricing Plan, APIs, Open Access”,
     consultato il 15 marzo 2009,
     http://www.readwriteweb.com/archives/google_app_engine_announcements.php

[22]    “Amazon, Amazon.com Introduces New Logo; New Design Communicates Customer
       Satisfaction and A-to-Z Selection”, consultato il 10 marzo 2009 http://phx.corporate-
       ir.net/phoenix.zhtml?c=97664&p=irol-newsArticle&ID=70550&highlight

[23] “NewYorkTimes, A Retail Revolution Turns 10” , consultato il 10 marzo 2009
     http://www.nytimes.com/2005/07/10/business/yourmoney/10amazon.html?ei=5090&en
     =c805d53acf76f2b3&ex=1278648000&partner=rssuserland&emc=rss&pagewanted=all

[24] “Amazon, Timeline and History”, consultato il 10 marzo 2009. http://phx.corporate-
     ir.net/phoenix.zhtml?c=176060&p=irol-corporateTimeline

[25] “Amazon, Affiliate Program”, consultato il 10 marzo 2009 https://affiliate-
     program.amazon.co.uk/

[26] “ZDNet, Amazon's Cloud Computing will surpass its retailing business”, consultato il 9
     marzo 2009 http://blogs.zdnet.com/BTL/?p=8471

[27] “The Economist, Where the cloud meets the ground”, , consultato il 10 marzo 2009
     http://www.economist.com/specialreports/displaystory.cfm?story_id=12411920

[28] “Amazon, Amazon Web Services Launches Amazon EC2 for Windows”, consultato il 10 marzo
     2009 http://phx.corporate-ir.net/phoenix.zhtml?c=176060&p=irol-
     newsArticle&ID=1216597&highlight=

                                                   12
Puoi anche leggere