Online Advertising: il caso di Google
←
→
Trascrizione del contenuto della pagina
Se il tuo browser non visualizza correttamente la pagina, ti preghiamo di leggere il contenuto della pagina quaggiù
UNIVERSITA’ DEGLI STUDI DI MILANO BICOCCA Facoltà di Economia Corso di Laurea in Marketing Comunicazione Aziendale e Mercati Internazionali Online Advertising: il caso di Google Relatore: Chiar.mo Prof. Federico ETRO Tesi di Laurea di Silvia Gariboldi Matr. n. 712536 Anno Accademico 2008- 2009
INDICE Capitolo I Google e altri motori di ricerca 1.1 Introduzione pagina 2 1.2 Come funziona un motore di ricerca pagina 4 1.3 L’ espansione della ricerca pagina 6 1.4 Cosa forma oggetto di ricerca pagina 6 1.5 Excursus storico sui cambiamenti inerenti alla ricerca pagina 7 1.6 AltaVista pagina 9 1.7 Lycos pagina 10 1.8 Excite pagina 11 1.9 Yahoo pagina 11 1.10 Google pagina 12 1.11 Da Ouverture a AdWords pagina 15 1.12 Il settore Seo e gli spammers affiliati pagina 17 1.13 I business che sviluppano dalla ricerca pagina 18 1.14 Il problema dei marchi registrati pagina 19 1.15 La questione della privacy pagina 20 1.16 La questione cinese pagina 21 1.17 La quotazione in borsa di Google pagina 22 1.18 I concorrenti di Google pagina 24 Capitolo II The online advertising industry 2.1 Confronto fra online advertising e offline advertising pagina 29 2.2 Sviluppo del settore: i diversi business, le diverse modalità di advertising e i diversi tipi di intermediazione pagina 30 2.3 Gli effetti network diretti e indiretti del mercato pagina 34 2.4 Tante diverse piattaforme pubblicitarie pagina 36 2.5 La pubblicità sui siti web degli editori pagina 39 Bibliografia pagina 43 1
Capitolo Primo Google e gli altri motori di ricerca In questo capitolo descriveremo l’emergere dell’advertising online e del fenomeno Google dalle origini ai giorni nostri, con particolare riferimento al libro sul tema di Battelle (2006). 1.1 Introduzione Lo sviluppo dell’industria di Internet, a partire dagli anni ottanta quando cominciarono a diffondersi le tecnologie più avanzate, rivoluzionò il modo di fare business attraendo così molte nuove imprese online, in un mercato che prometteva molte ricchezze. Da subito inizia il tentativo di inoltrarsi nella Rete offrendo dei metodi di navigazione dapprima semplici, a partire dalla ricerca dei documenti salvati nell’archivio del computer, poi sempre più complessi. Proprio per questo motivo si sviluppano i motori di ricerca, per accompagnare e facilitare l’utente nella visita al web. Alla fine dello scorso millennio molti motori di ricerca competevano sul mercato, riuscendo a soddisfare milioni di richieste di ricerca e ottenendo altissimi profitti. Tuttavia, nel 2001, iniziò una dura recessione che colpì molte società, non solo le più piccole ma anche quelle più affermate nel mondo del web: le capacità della rete sembravano essersi esaurite. In questa cornice Google, fondata nel 1998, a differenza di molte altre società sue concorrenti, non subì alcun danno da quella crisi del settore. Anzi, svolse un ruolo molto importante, poiché disponendo di preziosi dati, ottenuti dalla ricerca online, è stata in grado di comprendere le attitudini e le caratteristiche della nostra cultura. È riuscito a proporre delle nuove e possibili modalità di impresa editoriale, conoscendo già da prima i bisogni del consumatore. Infatti, teneva a memoria degli elenchi di parole e frasi più richieste che a mano a mano costruivano il database 2
delle intenzioni.1 In altre parole, quest’ultimo è formato da tutti i clickstream, letteralmente flusso di click, e si arricchisce ogni volta che un utente intraprende una ricerca in internet. In realtà, inizialmente i clickstream non erano memorizzati e salvati perché, ancora quando internet era minimamente diffuso, i file erano di piccole dimensioni, la memoria costava molto e per le società era assai dispendioso memorizzare tutti i dati. Oggi invece, grazie allo sviluppo e all’uso della tecnologia, a una larghezza di banda non più limitata e alla diminuzione del costo medio per uno spazio di memoria, i clickstream sono memorizzati. Questo è dato anche da un diverso utilizzo del computer rispetto al passato: inizialmente il PC era usato come mezzo di comunicazione istantanea e su di esso non rimaneva traccia di quello che aveva compiuto l’utente. I clickstream rappresentano una risorsa indispensabile per l’industria di internet e, salvando i vari movimenti dell’utente sulla rete, il motore di ricerca riesce a inoltrarsi in essi presentando dei risultati affiancati da annunci pubblicitari che tendono ad avvicinarsi agli interessi dell’utente stesso. L’obiettivo era quello di riuscire a sfruttare commercialmente questo grande database ed ecco che molte altre società insieme a Google, nata come azienda tecnologica, approdano nel mercato dei media dando avvio al fenomeno delle ricerche pagate, settore in crescita costante che in poco tempo ha raggiunto un valore di circa quattro miliardi di dollari. E se da una parte questo procura ingenti profitti all’impresa che ha accesso ai clickstream (Google, Yahoo, MSN, Ask, AOL) dall’altra il consumatore riesce a trovare risposte alla sua ricerca in modo più semplice, comodo e veloce. Tuttavia, a causa della memorizzazione sui diversi server di Google di dati riguardanti l’utente quest’ultimo si appropria di un’identit{ seppur digitale che può essere recuperata su richiesta dalle autorità. Situazioni simili si sono verificate soprattutto dopo l’11 settembre 2001. 1 Con l’espressione “database delle intenzioni” Battelle (2006) definisce “il più significativo manufatto culturale della storia” che poteva essere sfruttato in molte modalità. 3
Il congresso degli Stati Uniti d’America approvò l’Usa Patriot Act attraverso il quale poteva richiedere informazioni sugli utenti di Google e degli altri motori di ricerca per proteggersi da nuovi attacchi terroristici. Si crea così un conflitto di interessi per Google, AOL, Yahoo e gli altri, fra il governo e i loro utenti che erano spiati dalle autorità senza ricevere alcuna notifica. 1.2 Come funziona un motore di ricerca Secondo un approccio basato sul testo, il motore di ricerca legge la richiesta nella finestra di ricerca, individua le pagine web che offrono una possibile risposta alla domanda e presenta infine un elenco di indirizzi URL ordinati secondo rilevanza e pertinenza rispetto alla ricerca effettuata. A questo risultato si arriva attraverso il lavoro di tre elementi principali: il crawler, l’indice e il runtime system. Questi permettono a un motore di ricerca di essere rapido e di buona qualità. Il crawler agisce in modo automatizzato: spedisce per la rete tante richieste di pagine web in base alla ricerca effettuata dall’utente e, collegandosi a diversi URL, rispedisce poi i risultati trovati a un programma in grado di indicizzarli. Se prima erano indicizzati solamente i titoli delle pagine web, ora è indicizzato l’intero contenuto della pagina: memorizza tutti i link (e non solo, anche file PDF, di Microsoft office, file audio e video) presenti su una pagina e invia nuove richieste per quei link, svolgendo così un’attivit{ infinita. Più siti sono interpellati dal crawler, più completo sar{ l’indice; e questo permette di proporre all’utente delle pagine rilevanti ai fini della sua ricerca. I dati trovati sono poi trasferiti all’indice che fa un elenco delle pagine, delle parole e dei link presenti su queste in modo che, dato un indirizzo URL, il motore di ricerca è in grado di fornire una lista delle parole presso quell’indirizzo, e viceversa, quando si eseguirà una ricerca, il motore è in grado di fornire una lista di indirizzi URL contenenti le parole ricercate. Questo indice-database all’aumentare delle ricerche si arricchisce tanto che deve essere analizzato e interpretato (così come per esempio agisce l’algoritmo PageRank di Google) rileva la pertinenza e la notorietà di una pagina rispetto alla 4
ricerca effettuata, ottenendo così dei risultati sempre più precisi. Le pagine sono poi “etichettate” (tag) che le classificano per esempio in base alla lingua, alla nazionalità. Una volta che i dati sono indicizzati ed etichettati, sono rimandati all’indice runtime, il database che fornisce i risultati della ricerca all’utente. Il runtime system collega dunque l’attivit{ del crawler e dell’indice con l’interfaccia utente e il query server. Quest’ultimo, a partire dalla ricerca dell'utente, ricorre all’indice runtime e riporta le SERPs (search engine results page) all’interfaccia. Inoltre per facilitare l’interpretazione dell’utente, il motore di ricerca individua alcune parole-suggerimento che indicano il contesto della ricerca (per esempio BIOGRAFIA di John Lennon, previsioni del tempo a Milano, recensione del film ecc.). La parola–suggerimento rappresenta una spia che riconduce ad alcune pagine etichettate in un determinato modo (questo è quello che in sostanza svolge un query server). In tutto questo procedimento il motore di ricerca tenta di decifrare le intenzioni dell’utente per potergli offrire un servizio migliore. Tuttavia sorge il problema delle variazioni locali legate alla mancanza di un vocabolario controllato e alla complessità del linguaggio umano (molte query di ricerca sono scritte in dialetto, con numeri o comunque una richiesta può essere formulata in tanti modi differenti) e agli eventuali errori ortografici (in effetti, per esempio Google possiede un controllo ortografico in grado di individuare l’errore e correggendolo associandolo alla parola corretta). Proprio per questo, il motore di ricerca identifica una lista di parole da ignorare, come per esempio le preposizioni, in modo da facilitare il lavoro degli indici. E ancora, molte società che lavorano nel campo della ricerca spiano i clickstream dell’utente e memorizzano su quali pagine risultato clicca e quali altre apre in seguito. In questo modo riescono a capire il vero bisogno dell’utente in quanto dispongono di dati concernenti il suo comportamento e dunque risulterà più facile per loro indirizzare i potenziali consumatori verso scelte profittevoli per tali società. 5
1.3 L’espansione della ricerca Secondo uno studio effettuato dal progetto “Pew, Internet and american life” (che principalmente si occupa di capire come Internet è utilizzato dagli americani) il numero medio di ricerche aumenta circa del 25% annuo. Un così alto tasso di crescita è dato non solo l’utilizzo della rete da parte di un numero maggiore di utenti, anche dei più giovani, più scolarizzati e più disinvolti nell’uso delle nuove tecnologie, ma anche dal fatto che la rete offre moltissime risposte alle nostre ricerche e dunque l’utente è spinto a formulare più quesiti. Infatti, secondo un’altra indagine condotta dal Pew, numero medio di quesiti per singolo utente presso un motore di ricerca è pari a cinque. Questo perché l’utente è alla ricerca del risultato perfetto e quindi se non è soddisfatto dei risultati ottenuti dalla prima richiesta, sarà obbligato a richiederne un’altra, oppure dalla ricerca effettuata nascono nuovi quesiti, spunti per altre ricerche o per approfondimenti. Oltretutto, spesso l’utente esegue una ricerca utilizzando un linguaggio molto complesso, basti pensare a tutte le possibili combinazioni di parole per esprimere un quesito: il 5% degli utenti formula delle richieste utilizzando più di sei parole, il 50% sono ricerche basate su due/tre parole e solo il 20% compie quesiti di una sola parola. Alcune domande poi sono considerate uniche (per esempio ricercare la biografia di qualche personaggio famoso) e secondo le statistiche di Google queste coprono il 50% delle ricerche giornaliere. L’espansione della ricerca verso un risultato perfetto è la leva che spinge l’intero settore dei search engine che, a ogni incremento del numero di ricerche, perfezionano i loro risultati a beneficio di tutti gli utenti che usufruiscono del loro servizio. 1.4 Cosa forma oggetto di ricerca Secondo un’indagine condotta da Peter Jaffray, al primo posto si trovano le richieste informative (65%), seguite da quelle di intrattenimento (20%), e infine quelle commerciali (15%). 6
Kelsey Group, azienda sul mercato delle pagine gialle, stima che il 25% delle ricerche è di natura locale e commerciale. Ancora, nel 2004, un sondaggio di Harris afferma che molti utenti (40%) eseguono ricerche per pura vanità, altri (36%) sono in cerca di vecchi amici, altri ancora (24%) cercano un parente. Nel 2001 Broder, responsabile tecnologico di AltaVista, sostiene che il 12% degli utenti svolga ricerche di tipo sessuale, il 15% raccoglie link alla ricerca di un documento che sia pertinente, il 25% raggiunge uno specifico sito di cui è già a conoscenza e il 36% si dedica all’acquisto on-line ovvero a richieste commerciali. Confrontando i dati di Jaffray e Broder, il confine tra ricerca informativa e ricerca commerciale è molto labile poiché in realt{ “qualsiasi intenzione è commerciale”. Inoltre durante una ricerca sul web su ogni nuova pagina che si apre, compaiono banner di inserzionisti pubblicitari che potenzialmente aiutano e conducono l’utente a una ricerca migliore; ed è proprio basato su questo sistema il modo di far profitti per una societ{ di ricerca: ogni volta che l’utente clicca su un’inserzione pubblicitaria, il motore di ricerca trae un profitto. Si cerca dunque di indagare il comportamento dell’utente durante una ricerca per meglio capire come soddisfare le sue esigenze informative e commerciali. Infatti, agli albori di internet, quando non c’era dimestichezza nell’accedere alla rete, gli utenti si rivolgevano a delle directory, in altre parole pagine che presentavano una lista dei siti web più visitati. Oggigiorno invece ogni utente si rivolge alla rete perché è certo che potrà trovare risposte di ogni genere alle sue domande. La ricerca dunque assume un duplice scopo: da una parte svolge un’azione di recupero (per esempio di siti o di pagine di cui l’utente conosce l’esistenza) dall’altra parte svolge un’azione di scoperta. 1.5 Excursus storico sui cambiamenti inerenti alla ricerca Inizialmente la ricerca si occupava di recuperare le informazioni archiviate (si parla di informational retrieval); poi nel tardo ‘900 fu introdotto un archivio che, basato su di una struttura a elenco, individuava i libri memorizzati attraverso un codice numerico. Nonostante gli enormi sviluppi, questi archivi erano quanto a 7
dimensione troppo piccoli per soddisfare l’intero World Wide Web. Quando negli anni ’50 furono introdotti i computer digitali, il campo di recupero d’informazioni subì una grande rivoluzione: ricorrendo alla funzionalità back office era possibile maneggiare un enorme quantità di dati disponibili per le ricerche. Negli anni ’60 Salton inventò quello che si potrebbe definire il primo motore di ricerca digitale chiamato Smart (dalla cui traduzione: “Il magico ricercatore automatico di testi di Salton”) che recuperava informazioni in formato digitale. Con formato digitale s’intende la forma minima d’informazioni essenziali per cui non era più necessario l’intero testo o il documento. Tra gli anni ’80 e ’90 fu istituita una conferenza annuale sul reperimento d’informazioni (Trec) e ci si rese conto di come la raccolta di testi fosse molto limitata in confronto alle dimensioni del Web poiché su questo ognuno può pubblicare qualsiasi cosa senza controllo. È da qui che si sviluppa l’esigenza per i motori di ricerca di approdare nel mercato dei media caratterizzato da enormi potenzialità di guadagno. Sono introdotte le ricerche pagate: inserzioni pubblicitarie associate alle parole chiave inserite nella finestra di ricerca che generano molto traffico web. Lo scopo primo di un motore di ricerca è indirizzarlo in modo da offrire una ricerca non solo pertinente ma anche più rapida. Attraverso le ricerche pagate inoltre godono di beneficio anche gli inserzionisti i quali sono messi in contatto con i potenziali clienti in modo poco costoso e molto efficiente. Secondo Majestic Research il 50% delle ricerche comprende inserzioni a pagamento vicino ai risultati. Considerando che il prezzo medio per ogni click su un’inserzione è di cinquanta centesimi, che nel 14% dei casi l’utente sia interessato a visitare l’inserzione e che ogni mese sono effettuate quasi due miliardi di ricerche, il motore raggiunge livelli di profitto altissimi: circa 140 milioni di dollari al mese. Il modello della ricerca pagata sta invadendo nuovi segmenti di mercato soprattutto locali. Per esempio se sul web esistesse una pagina riguardo agli orari di visita su appuntamento e i recapiti del medico di famiglia questo porterebbe vantaggio non solo per l’utente, in grado di eseguire una ricerca in completa comodità, ma anche per il medico che avrebbe la possibilità di ottenere più profitti attraverso la pubblicità sul web piuttosto che su un elenco telefonico. 8
Per rendere redditizi i clickstream degli utenti, le ricerche pagate sono presentate vicino ai risultati di ricerca intrapresa da un particolare utente, in base al suo comportamento on-line. In questo modo si hanno ricerche personalizzate che offrono risultati più pertinenti e annunci pubblicitari mirati. Negli anni ’90, prima ancora della diffusione del web, fu concepito Archie, motore che analizzava gli archivi creando un indice di tutti i file presenti. Non era necessario conoscere l’indirizzo o il nome di un file, ma attraverso il sistema operativo DOS, con l’inserimento di una parola chiave era presentato un elenco di posti dove il file poteva essere trovato. Questo sistema utilizzava una tecnologia troppo complessa considerando le poche competenze di chi ricercava. Così nel 1993 fu introdotto Veronica che era in grado collegarsi direttamente con un file o documento. Sia Archie sia Veronica indicizzavano solo il titolo della pagina e non tutto il suo contenuto obbligando quindi l’utente a conoscere il titolo del documento che ricercava. Questo era anche il periodo in cui Internet si stava espandendo a vista d’occhio: tra il 1993 e il 1996, i siti web passarono da 130 a 600.000. è proprio questo il motivo che spinse Matthew Gray alla creazione di Wanderer, software che organizzava automaticamente un indice di siti che veniva presentato direttamente sull’interfaccia in modo che l’utente potesse ricercare più facilmente. Il problema di Wanderer era che consumava troppa memoria mentre indicizzava il contenuto di un sito e la larghezza di banda allora era molto costosa. Nel 1994 Brian Pinkerton introduce Web Crawler in grado di indicizzare i siti e l’intero contenuto dei documenti che trovava. Questo progetto ebbe molto successo tanto che lanciato nell’aprile 1994, a novembre di quello stesso anno aveva maturato già un milione di queries (ricerche, richieste). Attirata da questa fantastica crescita, nel '95 AOL compra Web crawler per un milione di dollari, convinta che presto il web sarebbe diventato un importante strumento di massa. 1.6 AltaVista Il primo motore di ricerca che si possa definire veramente valido fu Altavista.com; grazie al lavoro di Monier che costruì un nuovo crawler in grado di indicizzare tutto e che presentava un indice con dieci milioni di documenti e miliardi di parole 9
chiave. AltaVista, nato in un’azienda californiana che investiva nel campo della pura ricerca, fu lanciato nel dicembre del 1995 e presentava sedici milioni di documenti. AltaVista inoltre introduceva delle innovazioni di ricerca inerenti alla traduzione automatica di file audio e video. Tuttavia, la continua espansione della rete ci furono molteplici iniziative dirette alla conquista del web soprattutto da parte dei primi concorrenti di AltaVista (per esempio Gatekeeper, computer con enorme capacità di memoria e collegamento a banda larga con la rete, ma ancora Lycos, Yahoo, Excite, meglio descritte nei prossimi paragrafi). AltaVista non riusciva a recuperare risorse, soprattutto a causa di una gestione poco efficiente. Monier e Lang, direttore generale di AltaVista, per di più avevano diverse idee di gestione: se Monier vedeva AltaVista come puro e semplice strumento di ricerca, Lang voleva aprirsi anche alla vendita di software per internet. La storia di AltaVista caratterizzata da queste diatribe seguì con continue acquisizioni da parte di altre società, per esempio si ricorda che abbia venduto tutti i suoi risultati di ricerca a Yahoo, subito dopo fu acquisita da Compaq che un anno dopo la cedette alla finanziaria CMGI. Quest’ultima ne fece il miglior portale, ma le sue azioni crollarono poco più tardi così infine AltaVista fu venduto a Ouverture service senza però raggiungere il successo iniziale. 1.7 Lycos Introduce un metodo basato sulla “cattura di utenti”, tramite un particolare crawler analizza il contenuto del testo di una pagina web, ne comprende il significato propone un risultato all’utente che si compone anche di una piccola descrizione di quel testo. In questo modo chi ricerca, anche senza aprire la pagina risultato proposta da Lycos, può capire se questa è significativa e corretta ai fini della sua ricerca. Ciò portò molto vantaggio all’utente tanto che Lycos raggiunse non indifferenti livelli di traffico web, ma ad ogni modo cadde come successe per Altavista nella tana delle acquisizioni e tuttora a fatica tenta di conservare il suo spazio di mercato. 10
1.8 Excite È stata fondata sotto il nome di Architext nel ’94 a Stanford. Il nome dice tutto. Infatti, inizialmente proponeva un tipo di ricerca testuale nei database aziendali, fino a che nel ’95 si lanciò sul mercato del web sottoforma di directory che non solo comprendeva il contenuto delle pagine, ma che attraverso l’uso di indici statistici comprendeva anche il legame tra le diverse parole chiave in quel testo. L’anno successivo si quotò in Borsa ampliando le sue competenze grazie alle acquisizioni di Magellan (motore di ricerca) e Webcrawler di AOL. Introdusse delle innovazioni come myExcite.com contenente le istruzioni per creare una pagina web e ancora la posta elettronica era un servizio gratuito offerto agli utenti registrati presso Excite. Nonostante ciò, sentiva comunque la pressione di Yahoo. Quest’ultima rinunciò in molte occasioni di concludere trattative con Excite tanto che questa entrò nel servizio internet di @home che, anch’essa in concorrenza con Yahoo, offriva una connessione a banda larga, dei buoni contenuti e, non ultimo, la possibilità per Excite di trarre maggiori profitti. Le successive acquisizioni invece non andarono tanto bene e si perse a tal punto l’unit{ della cultura d’impresa che addirittura @home volle uscire dal settore dei media. 1.9 Yahoo Nasce come progetto di David Filo e Jerry Yang (i fondatori) che intendevano competere in un torneo di basket virtuale. Inventarono così un crawler in grado di estrapolare dalla rete dati statistici riguardo alle potenzialità di ogni giocatore determinandone il migliore attraverso una graduatoria. Nel ’94 i due lanciarono sul web la loro guida al WWW chiamando questo tentativo Yahoo (Yet Another Hierarchical Officious Oracle). Il sito di Yahoo facilitava la navigazione per gli utenti anche non esperti, attraverso una directory di link ordinati e raggruppati in diverse categorie o sottocategorie. Aggiunse poi a questo elenco un motore di ricerca, grazie all’alleanza con OpenText. L’elemento particolare consisteva nel fatto che nella directory erano presenti anche link di siti concorrenti e di quelli poco visitati che, secondo le classifiche, meritano attenzione da parte degli utenti. Inoltre sfruttando le tracce di link 11
lasciate ogni giorno, furono sviluppate anche delle sezioni specifiche come per esempio Yahoo finanza, economia, giochi, sport, cinema, mail, viaggi, ecc. Soprattutto con Yahoo si sente la necessità di ottenere ingenti finanziamenti; questo perché di per sé offrire ricerca pura sul web comporta investimenti gravosi e la necessità di possedere strumenti con buona capacità di memoria. Yahoo dunque cercò di costruire i suoi profitti attraverso i banner di pubblicità che a quel tempo erano solo cinque in tutto il web. 1.10 Google Nasce nell’universit{ di Stanford quando Larry Page iniziò a occuparsi dei link in ingresso sulle pagine web. Questi link riconducevano ad altre pagine e l’intento di Page fu contare e classificare questi collegamenti. Fu così che fu realizzato Backrub, sistema che memorizzava i link e ne analizzava il contenuto per capire a quali altre pagine si ricollegavano. Il web era in piena crescita, i documenti presenti sulla rete erano più di dieci milioni e crescevano del 2000% l’anno. Dunque i collegamenti di pagine con altre pagine si facevano sempre più fitti tanto che si rivelò necessario un crawler in grado di contare tutti i link collegati alle diverse pagine, e che ben permetteva di capire quali pagine si collegavano ad altre pagine. A Page si affiancò Sergey Brin interessato al progetto. I due costruirono un sistema di classificazione dei link in base alla loro fonte, ovvero le pagine dei siti che ospitano tali link. In base all’importanza della fonte veniva creata una graduatoria di link che premiava quelli provenienti da fonti importanti. Grazie all’introduzione dell’algoritmo PageRank si scoprivano i link collegati ai diversi siti sul web e poiché analizzava l’indice, restituiva una lista di link ordinati per pertinenza e importanza. Nel 1996 Page e Brin tentano di migliorare il loro servizio aggiungendo delle pagine all’indice e realizzando così un nuovo motore di ricerca, Google. Anche per Google c’era il problema dell’esaurimento della memoria su disco fisso, dati il numero elevato di indirizzi url e di link cui faceva riferimento. Si sviluppò quindi un’infrastruttura parallela ricorrendo all’utilizzo di apparecchi economici e accessibili. Questa architettura prevedeva il collegamento di più computer creando 12
così un sistema stabile e semplificando anche il problema della rottura di qualche pezzo che poteva essere facilmente sostituito. Un’altra questione che dovette affrontare era che ai proprietari dei siti web non interessava essere indicizzati, anzi temevano che con l’indicizzazione il contenuto della loro pagina potesse essere copiato e ripresentato uguale su un altro sito. E ancora molti non accettavano il loro scarso risultato in graduatoria nell’indice. A questo punto Page e Brin decisero di dare in licenza la loro tecnologia non solo perché per sostenere un tale progetto erano necessarie enormi risorse, anche economiche, ma anche perché entrando nel mercato come una società, Google avrebbe dovuto fare i conti da subito con i concorrenti Yahoo, Lycos, Excite. Questo tentativo fallì, tanto che, nel 1998, i due aprirono una società finanziata da uno dei fondatori della Sun; fu così costituita Google Inc nella quale Larry Page svolgeva il ruolo di direttore e Sergey Brin il presidente. Google ebbe un enorme successo attirando investimenti da parte di molti venture capitalist (John Battelle li definisce come investitori che concedono finanziamenti alle piccole società che entrano a competere in mercati emergenti). In poco tempo Google contava già dieci dipendenti ma aveva ancora bisogno di una strategia di business che portasse denaro e visibilità alla società. Questo modello di business poteva essere quello delle ricerche pagate, ma i due fondatori, da sempre contrari, sostenevano che inserire banner pubblicitari tra i risultati di ricerca alzava i tempi di caricamento e di visualizzazione della pagina rallentando quindi lo scopo ultimo di Google, una ricerca rapida e ad alti livelli di qualità. Quando nel duemila diminuirono drasticamente gli investimenti nel marketing, il sistema della pubblicit{ su banner ne subì gravi conseguenze. Così l’approccio di Google si orientò verso il modello di business adottato da Bill Gross per il suo motore di ricerca Goto.Com attraverso il quale dava la possibilità agli inserzionisti di comprare annunci pubblicitari testuali online, mantenendo comunque i risultati pubblicitari distinti da quelli di ricerca. Da subito nacque l’esigenza per Google di registrarsi come marchio e di ricevere finanziamenti. Poiché aveva ancora una debole popolarità, le agenzie pubblicitarie si mostravano molto scettiche, e anche i consulenti ai quali si rivolgevano 13
proponevano piani di marketing che il consiglio di amministrazione di Google non approvava. Ad ogni modo la stampa iniziava a interessarsi al fenomeno Google, elogiando i metodi rapidi e precisi della sua ricerca. Grazie soprattutto all’azione della stampa si sviluppo un piano di marketing basato sulle pubbliche relazioni, cercando quindi di creare contatti diretti con gli utenti, informandoli del servizio che Google erogava. In questo modo furono raggirate le tradizionali strategie che fondavano nel pesante investimento in spot o annunci pubblicitari in genere. La società continuava a crescere tanto che nel 2002 vedeva impiegati già 150 dipendenti. Si solleva dunque il problema delle assunzioni. Da subito i fondatori Page e Brin non vollero affidare questo compito a società di consulenza esterna. Inoltre per evitare che con nuove assunzioni si potessero creare delle divisioni interne dannose per mantenere unita la cultura aziendale, furono istituiti dei comitati di assunzioni durante i quali i canditati dovevano essere scelti da una giuria di dipendenti interni. Questi comitati a mano a mano che Google cresceva si moltiplicarono per ogni area operativa. L’assunzione più difficoltosa era quella del comitato del consiglio di amministrazione incaricato a nominare il direttore generale che presenti una grande abilità ingegneristica, di controllo e di gestione. L’incarico fu affidato a Eric Schmidt che con Page e Brin formava un triumvirato volto a gestire la forte crescita di Google nel 2001, mentre l’intero settore del web subiva una dura recessione. Punto di forza di Google fu proprio il mantenere intatta la cultura interna della societ{ che fondava su un motto: “non essere cattivi”, ovvero avere rispetto per gli altri non solo all’interno della societ{ ma anche verso l’esterno. Era dunque un comportamento da adottare sia nelle relazioni tra colleghi, sia tra Google e il resto del mondo. La crescita di Google fu determinata anche da molte acquisizioni per continuare a innovare e migliorare i servizi di ricerca (investimenti nell’innovazione e R&D). Furono creati dei forum per le discussioni e per lo scambio di messaggi, blog per la condivisione di immagini anche satellitari e furono conclusi accordi con operatori di telefonia mobile. Google ospitando un indice così vasto non poté che sbarcare nel mercato internazionale accogliendo richieste di ricerca in più di quaranta lingue. 14
In questo scenario di forte espansione, la struttura dirigenziale assumeva un ruolo molto importante. Infatti, assumendo il tradizionale modello gerarchico ci si perdeva dietro lunghe pratiche burocratiche trascurando l’importanza della rapidit{ dell’innovazione. Si adottò una struttura più dinamica, nella quale i dipendenti divisi in squadre lavoravano agli stessi progetti che in seguito erano esaminati e valutati da Page e Brin che ne realizzavano una classifica. I migliori ingegneri e programmatori erano premiati con maggiori investimenti per i loro progetti e con la possibilità di presentarli pubblicamente. Questo era un modo per creare concorrenza all’interno della societ{, motivando i dipendenti a fare del loro meglio. 1.11 Da Ouverture ad AdWords Gross, famoso per le sue continue attività imprenditoriali nel settore dei software e dei motori di ricerca, fondò nel ’96 la cosiddetta fabbrica di idee, Idealab. Questa offriva finanziamenti ad alcune società per le quali erano sperimentate le strategie di business più all’avanguardia e creava contatti con diversi venture capitalist. Nel 1997 Gross fonda GoTo.com con l’intento di migliorare la ricerca. Scopo che in realtà non interessava granché agli altri soggetti nel mercato del web. Infatti, offrire una ricerca migliore significava dare la possibilità agli utenti di trovare risultati migliori su un sito a discapito di un altro. Ciò portava vantaggio all’utente, ma lo scopo primo di siti e portali era trattenere il traffico web, abbracciando quindi il lato commerciale della ricerca e offrendo servizi sempre più utili come il meteo, la casella di posta elettronica e sezioni particolari di informazione. Ed era proprio in questa direzione che si stavano muovendo anche i piccoli operatori indipendenti del commercio elettronico, che sempre più spesso compravano spazi pubblicitari sui portali per accrescere la loro pubblicità. Questo sistema era molto dispendioso e oltretutto raggiungeva clienti casuali che molto spesso non erano intenzionati all’acquisto dei prodotti o servizi di quell’operatore del commercio elettronico. Con questo sistema inoltre si diffusero anche gli spammer (tentativo di rubare traffico web e indirizzarlo verso il proprio sito.) Infatti, sulle pagine dei siti di spamming erano inserite delle parole chiave tra loro collegate. Ogni volta che un utente inseriva nella finestra di ricerca una parola chiave, il motore di ricerca che 15
analizzava la relazione tra le parole chiave su una pagina web, offriva come risultato questi siti per nulla pertinenti con la richiesta dell’utente. In questo modo anche per le piccole imprese del commercio elettronico diveniva difficile distinguere il traffico buono, intenzionale, da quello indifferenziato, dato da risultati scadenti del motore di ricerca intaccati dallo spamming. Per catalizzare solo traffico buono, quello che realmente porterà una società a dei guadagni, era necessario che gli inserzionisti pubblicitari pagassero l’esclusiva di alcune parole chiave così ché, ogni volta che l’utente ricercava quella parola, risultavano facilmente raggiungibili. Questo modello era basato sulla performance: gli inserzionisti avrebbero pagato solo quando l’utente avesse deciso di cliccare sull’inserzione raggiungendo quindi il sito dell’inserzionista. GoTo.com comprava traffico web, attraverso l’acquisizione di reti pubblicitarie, a un prezzo compreso tra i cinque e i dieci centesimi, gli inserzionisti pagavano un centesimo per click, prezzo inferiore a quello di mercato. In questo modo era possibile identificare i clienti fedeli e trattenerli sul proprio sito. Ben presto grazie al volume di utenti fedeli, Goto.com, per acquisirne di nuovi, pagava molto meno di quanto spendevano gli inserzionisti per tutti i click. Goto.com era diventato un motore di ricerca commerciale, sulla cui graduatoria nei primi posti figurava era disposto a pagare di più per l’acquisto dell’esclusiva di una parola chiave. In questo modo, gli inserzionisti potevano sviluppare la loro attività commerciale. Nonostante le lamentele riguardo alla graduatoria a pagamento Goto fu lanciata nel ’98 e nel giro di pochi mesi crebbe tantissimo con centinaia di inserzioni e tantissimi clienti. Nell’aprile ’99 si quotò in borsa. Inoltre, Goto offriva dei pacchetti pay per click (PPC) ai siti web di altre società. Si tratta di un’attivit{ commerciale in syndacation: licenza, cessione ad altri del proprio servizio. In questo modo non solo si sviluppano nuovi canali distributivi, ma si assiste anche all’aumento della rete pubblicitaria che ospita un numero sempre maggiore di inserzionisti, combattendo contro lo spamming e il traffico indifferenziato. L’attivit{ di syndacation funzionò e crebbe immensamente tanto che la rete controllata dai siti partner di Goto rappresentava il 90% di traffico in più rispetto al suo sito risultato, proposto come destinazione per l’utente. Il sito risultato fu poi eliminato e nel 2001 Goto diventa formalmente Ouverture. In 16
questi anni Google aveva fatto molti passi avanti, ma, come detto prima, non aveva intenzione di mischiare la pura ricerca che offriva con il sistema delle ricerche pagate, neppure quando Gross propose un accordo a Page e Brin. Tuttavia più tardi i due fondatori di Google introdussero il programma AdWords imitando il modello di business di Ouverture per quando riguarda le ricerche pagate. Se la graduatoria di Ouverture era creata in conformit{ a quanto l’inserzionista era disposto a pagare per l’acquisto di una o più parole chiave, Google basava la graduatoria sul concetto di popolarit{. L’inserzione che attirava più click aveva diritto a un posto migliore in graduatoria (sistema ribattezzato AdRank). Più tardi fu lanciato da Google AdSense, un nuovo programma per la pubblicità attraverso il quale i siti degli editori erano letti e analizzati per poi offrire loro annunci pubblicitari pertinenti al contenuto. Con Adsense anche i piccoli siti potevano guadagnare sulle basse percentuali di traffico web che attiravano. 1.12 Il settore Seo e gli spammer affiliati Lo sviluppo dei motori di ricerca permise anche ai piccoli imprenditori e produttori di manufatti particolari di poter allestire una vetrina online offrendo il loro servizio a un maggior numero di utenti anche di diversa nazionalità. Raggiungere un posto alto nella classifica di Google significava certamente guadagno. Il settore delle Seo (search engine optimization) offre la possibilità di ottimizzare la ricerca con un motore, in altre parole, prevede l’adattamento di un sito affinché questo sia presentato nei primi posti della graduatoria dei risultati. In altre parole, aiutavano i nuovi soggetti presenti e trovabili sul web a organizzare al meglio la struttura del loro sito per essere favoriti dal motore di ricerca (per esempio riempire il sito di parole chiave riconosciute dal search engine). Questo settore era molto prospero e di facili guadagni. Proprio per questo attirò molti disonesti che svolgevano pratiche contrarie al regolamento proposto dallo stesso Google. Si formano così tre sezioni di operatori: i black hats, che tentano di corrompere il sistema presentando delle pagine web piene di parole chiave casuali in modo da 17
ingannare l’indice del motore di ricerca e scansare i risultati dei white hats, gli onesti. Tra queste due categorie si sviluppa quella degli spammer affiliati ovvero siti che collegano i clienti a siti più grandi verso un corrispettivo rappresentato da una percentuale sull’acquisto del cliente su quei siti. Per fermare queste procedure e limitare lo spamming, Google doveva periodicamente aggiornare gli algoritmi del motore. Ad ogni aggiornamento l’indice cambiava, la classifica si sfaldava e anche i White hats, che operavano regolarmente, venivano colpiti. In questa situazione, quindi, il piccolo produttore che si vedeva in cima alla classifica di Google dopo l’aggiornamento spariva completamente dall’indice. E poiché per questi comprare banner pubblicitari era troppo dispendioso preferirono l’adesione ad Adwords e Adsense per entrare nel mondo delle inserzioni a pagamento. Tale modello inserzionistico offriva poco spazio per una completa pubblicizzazione del prodotto o servizio offerto. Fu a questo punto che Google diede una svolta al sistema: memorizzando la cronologia e i movimenti degli utenti sul web, presentava una lista dei potenziali clienti per un’azienda. In questo modo l’azienda non aveva più interesse nel sostenere ingenti spese per comprare spazio online per pubblicizzarsi, ma in base alle tracce e alle intenzioni dichiarate dagli utenti, poteva raggiungere direttamente il target più profittevole. Ovviamente non per tutte le aziende vale questo discorso: importante è capire attraverso quale mezzo sia possibile ottenere un adeguato ritorno sull’investimento iniziale (ROI). 1.13 I business che si sviluppano dalla ricerca. Si assiste al progresso del settore musicale; grazie al motore di ricerca Napster è possibile ricercare e acquistare musica online. Un’importante evoluzione è quella del settore delle notizie. Infatti, a causa dalla ricerca, le notizie sul web si presentano molto frammentate così che ogni volta che si intraprende un’indagine sul web riguardo a delle notizie, queste non sono presentate come completi articoli giornalistici ma come pezzi di articoli sparsi sul web e rintracciabili attraverso la ricerca su un motore. Questo meccanismo di “deep-linking”, il collegamento tra un sito e un’altra pagina senza passare per l’home page di quel sito, offre la possibilit{ agli utenti di trovare gli stessi ritagli di 18
articoli e oltretutto attira molto traffico web. Oggi le aziende editoriali ricorrono al deep linking offrendo in aggiunta agli utenti abbonati una consultazione più approfondita, potendo accedere agli articoli completi. Ovviamente un sito editoriale dovr{ presentarsi invitante agli occhi dell’utente e costantemente aggiornato in modo che possa essere citato in molte fonti autorevoli. In questo modo non solo gli utenti saranno incoraggiati a concludere un abbonamento a pagamento per quel sito, ma anche gli inserzionisti saranno disposti a pagare per comparire su di esso e godere del suo traffico web. Rivoluzionò anche il business delle ricerche locali e delle agenzie immobiliari. Se prima dell’avvento del web per concludere affari erano necessari viaggi di ispezione per instaurare un rapporto con i potenziali acquirenti, oggi, attraverso la ricerca è possibile conoscere informazioni importanti in tempo reale in qualunque parte del mondo. Gli affari sono conclusi ”al buio” ovvero attraverso notizie accessibili a tutti anche ai concorrenti. 1.14 Il problema dei marchi registrati 2 Dopo lo sviluppo di AdWords e Adsense, molte società con marchio registrato compravano parole chiave per attirare un maggiore flusso di traffico sul proprio sito. Alcune delle società a loro concorrenti pagavano un prezzo più alto per quelle parole che potessero ricondurre al marchio, e in questo modo riuscivano a comparire nei risultati di ricerca effettuati per quel marchio. A causa di questi fatti, Google fu accusato di dare la possibilità alle società concorrenti di utilizzare il marchio registrato di altre società per fuorviare la loro clientela. Inizialmente Google proibì l’acquisto di parole riferibili ai marchi registrati da parte dei concorrenti, ma si rese conto che i risultati che proponeva erano incompleti. Declinò quindi il divieto affermando che la ricerca doveva essere 2 In riferimento a questo paragrafo con i termini Black Hats J. Battelle (2006) si riferisce a quelle SEO che praticano azioni disoneste, volte a sviare l’utente su altri siti (spamming); e White Hats coloro che si comportano secondo le regole del WebMaster (condizioni offerte da Google per poter sfruttare al massimo il settore delle Seo senza ricadere in patriche sleali (black hats). 19
un servizio in grado di soddisfare più soggetti contemporaneamente: gli utenti, le società a marchio registrato ma anche i suoi concorrenti. Nasce da questa situazione anche la cosiddetta “frode di click”: pratica attuata dai siti Black hats che si iscrivono ad Adsense avendo così accesso alle inserzioni dei concorrenti. I Black hats sono poi collegati a dei software che automaticamente cliccano su tutte le inserzioni di una pagina. Questo procura grande guadagno per Google, ma al contempo, una spesa maggiore e inutile per l’inserzionista White hat che paga il motore di ricerca per ogni click sulla sua inserzione. Per contrastare tale fenomeno, sono stati introdotti dei metodi di controllo molto sofisticati in grado di identificare i disonesti e proteggere gli inserzionisti White. 1.15 La questione della privacy Prima di internet le informazioni personali degli utenti, considerate di pubblico dominio, erano raccolte e custodite in alcuni registri e quindi rese accessibili solo ad alcuni. Un esempio concreto sono le pagine gialle in cui compare il recapito telefonico e l’indirizzo di chi ha scelto di comparire sull’elenco. Con lo sviluppo dei motori di ricerca divenne possibile acquisire tali informazioni dai risultati proposti dal motore. In una situazione del genere, Google si trovò in conflitto di interessi tra chi voleva proteggere le proprie informazioni personali e chi invece voleva avvalersi del diritto di sapere. Il problema si aggravò quando Google lanciò G mail. Questo servizio di posta elettronica offriva agli utenti uno spazio di un gigabyte e presentava affianco al testo della mail delle inserzioni pubblicitarie pertinenti. E proprio a causa dell’alta attinenza di questi annunci pubblicitari con il contenuto della mail, gli utenti di Google iniziarono a sospettare che questo potesse leggere la loro posta privata. In realtà Google cercava solo delle corrispondenze con le parole chiave contenute nella mail e i termini comprati di Adwords, ricorrendo alla posta elettronica come ulteriore mezzo per gli inserzionisti di distribuire i loro annunci. In effetti, ogni volta che un utente si collega al web attraverso un computer, mette a disposizione della rete le proprie informazioni private (indirizzo IP) e contribuisce con le tracce che lascia sul PC (history, cronologia). 20
In seguito all’attentato terroristico dell’11 settembre 2001 fu introdotto l’Usa Patriot Act che a differenza dell’Anti Terrorism Act ampliava i poteri delle autorit{ federali riguardo alle intercettazioni di comunicazioni private non solo telefoniche ma anche quelle rintracciabili in rete. Infatti, se prima di questo provvedimento il governo, per attingere a informazioni personali di persone potenzialmente pericolose, doveva mostrare un mandato, ora può rivolgersi a una qualsiasi società che vede quella persona cliente e indagare sui suoi clickstream senza che il sospettato riceva alcuna notifica di indagine. Il governo deve provare che le informazioni riguardanti quella specifica persona sono necessarie al fine dell’indagine. Tuttavia il consiglio comunale di New York non si trovò del tutto d’accordo con questo provvedimento. Sosteneva, infatti, che si sarebbe dovuto innanzitutto proteggere i cittadini da attacchi terroristici senza però ledere quelli che erano considerati i diritti costituzionali di libertà civili. I cittadini indagati dovevano essere informati del fatto che il governo stesse analizzando le loro informazioni e comunicazioni personali. In realtà questo non avviene: Google collabora con il governo che ha dunque la possibilità di accedere ai clickstream di tutti utenti. 1.16 La questione cinese Un motore di ricerca accessibile da ogni parte del mondo deve sottostare alle legislazioni locali. Se da una parte la Cina rappresenta l’attrazione per molte societ{ che vogliono entrare nel suo ampio mercato, d’altra parte presenta una legislazione molto rigida difficile da aggirare. Nel 2002 il governo di Pechino censurò alcuni contenuti di Google riguardo a delle informazioni che voleva tenere segrete e non accessibili ai suoi cittadini. Così ogni volta che l’utente cinese cliccava sui link censurati era indirizzato ad altri siti approvati dal governo, oppure si apriva una finestra di errore. Quando nel 2004 Google propose il programma Google News in lingua cinese, tolse tutti i risultati censurati poiché effettivamente non offrivano alcun servizio utile. Così facendo però andava contro quella che era la sua politica “don’t be evil” assecondando il 21
governo cinese. Infatti, voleva entrare in quel mercato dove erano già presenti i suoi principali concorrenti Yahoo e Microsoft e per fare ciò doveva sottostare alle direttive cinesi. Nel 2004 acquistò il secondo motore di ricerca cinese Baidu che gli facilitòl’ingresso in quel mercato, fino a che nel 2006 Google aprì una filiale in Cina proponendo una nuova versione del suo motore di ricerca che filtra i contenuti in base alla normativa cinese. 1.17 La quotazione in borsa di Google Nel 2003 l’economia della ricerca si rafforza. Yahoo e Microsoft sono partner di ouverture e sono presenti sul mercato anche Google e MSN. Tra questi Google: Si serviva di algoritmi di alta qualità per la ricerca. Yahoo e MSN per questo si erano affidati allo stesso Google o a Inkiomi; Aveva creato per le ricerche a pagamento una rete di inserzionisti pubblicitari (AdWords). Mentre Yahoo e MSN si erano rivolti per questo a Ouverture; Generava traffico studiando gli utenti e le loro richieste fino a riuscire a proporre agli utenti stessi delle ricerche pagate inerenti al loro percorso di ricerca. Yahoo e Microsoft avevano a disposizione un ingente flusso di traffico web, mentre Ouverture mancava della tecnologia e dei siti di destinazione. Iniziò quindi una corsa per recuperare Google: Yahoo compra Inkiomi venendo a disposizione della tecnologia necessaria; Microsoft puntava Altha Web e Ask Jeeves. Da quel momento sia Microsoft sia Yahoo iniziarono a sviluppare una strategia riguardo alle ricerche pagate ed entrambi puntarono sull’acquisizione di Ouverture che, trovandosi in una posizione molto scomoda, decise di acquistare il motore Althaweb, Altavista e molti altri brevetti. Così facendo era in grado di competere con Google, ma più tardi fu acquisito da Yahoo, che poteva considerare Ouverture come un fornitore poiché le procurava il 20% dei ricavi e una buona percentuale di profitti. 22
Nel 2003 sia Yahoo sia Microsoft possedevano già delle azioni di valore sul mercato. Google non poteva competere con esse se fosse rimasta una società privata. Possedeva tutti i requisiti necessari per la quotazione in borsa: finanziatori con capitali di rischio, tantissimi dipendenti ed enormi profitti. Queste caratteristiche che fanno di Google una grandissima società, avevano costretto la commissione di controllo sulla borsa (SEC, simile alla Consob italiana) a imporre a Google la presentazione di relazioni che venivano richieste alle società quotate. Questo, facilitò l’ingresso di Google in Borsa. Tuttavia, i fondatori di Google erano contrari al collocamento in borsa secondo i tradizionali metodi, ovvero rivolgendosi a una banca di investimenti che stabiliva il valore della società e il prezzo delle azioni. Infatti, spesso queste banche fissano un valore delle azioni più basso rispetto a quello che effettivamente valgono, questo per creare speculazione, così che quando il prezzo sale i clienti della banca guadagnano mentre la società quotata ci perde. Il metodo alternativo era quello di rivolgersi a una banca piccola e specializzata che distribuiva le azioni attraverso un meccanismo di asta per determinare il loro prezzo prima del collocamento. Inoltre, ciò che preoccupava Page e Brin era mantenere un controllo diretto sulla società appena quotata. Per questo furono introdotte due categorie azionarie attraverso le quali gli alti dirigenti avrebbero potuto conservare il loro potere di controllo a discapito dei singoli azionisti. Questa struttura, insolita per una società tecnologica, consentiva che gli obiettivi di business nel lungo periodo non dipendessero dai valori azionari di mercato. Attuando questo modello Google si distingueva da tutte le altre società quotate che seguivano le regole tradizionali dettate da Wall Street, attirando su di sé critiche e rimproveri anche da parte degli investitori che la finanziavano. A metà del 2004 Google era disposto a vendere sul mercato del NASDAQ le sue azioni con prezzi che oscillavano tra i 108 e 135 dollari. Solitamente il prezzo delle azioni era molto più basso per permettere ai piccoli investitori di prendere parte alla quotazione. In questa fase Google si mostrò molto impreparata soprattutto quando allestì un sito web attraverso il quale il pubblico, registrandosi, avrebbe potuto comprare azioni.tuttavia venne commesso l’errore di offrire ai propri dipendenti tantissime azioni non registrate alla SEC che obbligò Google all’offerta 23
obbligatoria di riacquisto ovvero a ricomprare le proprie azioni al valore iniziale. La situazione peggiorò quando il mercato del NASDAQ cominciò a cedere e in caso di condizioni incerte di mercato solitamente i prezzi delle azioni si abbassano. Così Google diminuì il prezzo delle sue azioni proposte per 85 dollari e il 19 agosto 2004 entrò ufficialmente nel mercato azionario. Nonostante il collocamento di Google fu molto travagliato, una volta entrato in Borsa riscosse molti successi e il prezzo del titolo schizzò fino a raggiungere una quota di 300 dollari in meno di un anno. Dopo il collocamento Google cresceva a vista d’occhio e maturava sempre più responsabilità non solo nei confronti degli utenti e dei dipendenti ma ora anche degli azionisti. Proprio per questo motivo nacque l’esigenza di una revisione strategica interna a Google che portò delle modifiche anche per quanto riguarda il suo assetto organizzativo. I manager che si occupavano della gestione totale della societ{ furono rimpiazzati da gruppi distinti in base alla loro funzione. C’era un gruppo che gestiva la ricerca, un altro i prodotti pubblicitari (attività principali di business) e altri ancora che si occupavano dei processi di sviluppo di progetti che potevano potenzialmente diventare i prossimi business di Google. Nonostante l’adozione di questa struttura organizzativa Page, Brin e Schmidt continuavano a far valere il loro triumvirato e deliberavano la loro approvazione per tutti i progetti che altrimenti non erano portati a termine. 1.18 I concorrenti di Google Sicuramente il primo da nominare è Yahoo. Se confrontate, le due presentano analogie e differenze. Sono accomunate dal successo che hanno avuto sia dal punto di vista dimensionale sia da un punto di vista finanziario. Entrambe quotate in Borsa e finanziate da importanti venture capitalist. Le differenze stanno soprattutto nella cultura aziendale. Si contrappongono uno stile quasi totalitario di Page e Brin di Google e un approccio più schivo di Yang e Filo che preferiscono delegare ad altri autorità e responsabilità. Inoltre era più facile fare affari con Yahoo rispetto a Google. In effetti, Yahoo è più vecchia di 24
Google, così quando quest’ultima iniziò a crescere spropositatamente, Yahoo si era già stabilizzata alla crescita. Google era un ambiente caotico e, soprattutto dopo tutto il successo anche un po’ arrogante, mentre Yahoo aveva gi{ molto più esperienza nell’accondiscendere le aspettative dei partner. Questo perché Yahoo subì la recessione del 2001 arrivando a un passo dal fallimento. Nel momento in cui ci fu il “Google Boom”. La diversità più importante sta nella ricerca. Google offre i primi risultati molto pertinenti con il termine inserito, in base alla popolarità, il resto sono risposte date da un algoritmo in base ad altri criteri per cercare di soddisfare anche la più strana richiesta. Inoltre la pagina di risultati offre non molti consigli editoriali. Yahoo invece, da subito presenta la possibilità di avere informazioni più dettagliate rispetto alla ricerca attraverso l’applicazione “also try ”. Infatti, Yahoo crea delle liste di ricerche di altri e le presenta all’utente in base alle analogie con la sua richiesta. Basa la sua ricerca soprattutto sulla popolarità integrando anche risultati commerciali. Si occupavano delle intenzioni degli utenti in modo distinto. Yahoo preferiva percorrere delle scorciatoie: gli esseri umani erano aiutati dalla tecnologia nel scegliere i contenuti, in questo modo riuscivano a immedesimarsi nelle richieste dell’utente. Per Google questo era impossibile, ogni problema che si verificava, era risolto prima dalla tecnologia e poi dal lavoro umano. Se per Yahoo era chiaro essere protagonista sul mercato dei media, Google si considerava una società tecnologica che lavora anche nel mercato dei media. Successiva differenza tra le due sta nella formazione della graduatoria dei risultati. Yahoo affida i posti migliori a chi gode di molta popolarità e chi è disposti a pagare più degli altri. Google invece, basa la sua graduatoria su dati statistici e percentuali di download. Entrambe sono mediatori di contenuti e di servizi per i consumatori basati sullo sfruttamento della pubblicità e degli abbonamenti; tuttavia Yahoo ha un approccio più commerciale e il suo fine ultimo e sì soddisfare il consumatore facendo in modo che acquisti dall’azienda pubblicizzata. Mentre a Google non importa se poi il 25
Puoi anche leggere