1. La corsa alla rilevanza
Se non state pagando qualcosa, non siete un cliente, siete il prodotto che stanno vendendo.
ANDREW LEWIS, sul sito web MetaFilter
con lo pseudonimo di Blue_beetle1
Nella primavera del 1994, Nicholas Negroponte era seduto a pensare e a scrivere. Al Media Lab del Massachusetts Institute of Technology (Mit), da lui ideato, giovani progettatori di microcircuiti, artisti della realtà virtuale e gestori di robot erano furiosamente impegnati a costruire i giocattoli e gli strumenti del futuro. Ma Negroponte stava meditando su un problema più semplice, quello che hanno ogni giorno milioni di persone: che cosa guardare in tv.
A metà degli anni novanta, esistevano centinaia di canali che trasmettevano ventiquattr’ore al giorno, sette giorni alla settimana. Buona parte della programmazione era orrenda e noiosa: pubblicità di attrezzi da cucina, video dell’ultimo gruppo musicale che aveva prodotto un unico successo, cartoni animati e notizie sui personaggi famosi. Solo una piccola percentuale di quella roba poteva interessare a ogni singolo telespettatore.
Con l’aumentare dei canali, il sistema di saltare continuamente da uno all’altro era sempre più frustrante. Cercare tra cinque canali o tra cinquecento non è la stessa cosa. E quando si arriva a 5mila, questo sistema diventa inutile.
Ma Negroponte non si preoccupava. Non tutto era perduto, anzi, la soluzione era dietro l’angolo. «La svolta della televisione del futuro» scrisse «sarà smettere di pensare alla televisione come tale», e cominciare a vederla come un apparecchio intelligente. Ciò di cui avevano bisogno i telespettatori era un telecomando che si comandava da solo, un aiutante automatico e intelligente che avrebbe imparato quello che ognuno guardava di solito e selezionato i programmi. «Oggi il televisore vi consente solo di controllare la luminosità e il volume e di scegliere il canale» scrisse Negroponte. «Domani vi consentirà scelte ben più ampie, a seconda che siate interessati a spettacoli a luci rosse, a quelli di azione o alla politica.»2
E perché fermarsi lì? Negroponte immaginava un futuro pieno di apparecchi intelligenti che ci avrebbero aiutato a risolvere problemi come quello della televisione. Come un maggiordomo alla porta, quegli «agenti» avrebbero lasciato entrare solo i nostri programmi e i nostri argomenti preferiti. «Immaginate un futuro» scrisse ancora «in cui il vostro agente sia in grado di leggere tutti i giornali e le notizie d’agenzia, e di captare le trasmissioni radio e tv di tutto il pianeta, per poi farne una sintesi personalizzata. Questo tipo di giornale viene stampato in un’unica copia […], chiamatelo The Daily Me (Io oggi).»3
Più ci pensava e più l’idea gli sembrava sensata. Nell’era digitale, la soluzione all’eccesso di informazioni era un redattore intelligente, personalizzato e incorporato. E non soltanto per la televisione. Come scrisse al direttore della nuova rivista di tecnologia Wired, «gli agenti intelligenti sono indubbiamente il futuro dell’informatica».4
A San Francisco, Jaron Lanier rimase sgomento davanti a questa affermazione. Lanier era uno dei creatori della realtà virtuale. Fin dagli anni ottanta cercava di far incontrare i computer con le persone. Ma l’idea degli agenti gli sembrava una follia. «Che cosa vi è preso a tutti?» scrisse in una lettera alla «comunità di Wired» che pubblicò sul suo sito web. «Quest’idea degli agenti “intelligenti” è sbagliata e pericolosa… La questione degli agenti diventerà un fattore determinante per decidere se [la rete] sarà molto meglio o molto peggio della televisione.»5
Lanier era convinto che, dato che non sarebbero state persone reali, quegli agenti avrebbero costretto gli esseri umani a interagire con loro in modo scomodo e frammentario. «Il modello di agente che vi interessa sarà un modello da cartone animato, e attraverso i suoi occhi vedremo una versione da cartone animato del mondo» scrisse.
E poi c’era anche un altro problema: l’agente perfetto avrebbe probabilmente escluso quasi tutta la pubblicità. E dato che il commercio online contava soprattutto su quella, era improbabile che le aziende producessero agenti che le danneggiavano. Era più probabile, scrisse Lanier, che questi agenti facessero il doppio gioco, che fossero corruttibili. «Non si capirebbe per chi lavorano.»
Era un’obiezione chiara e semplice. Ma anche se sollevò un po’ di dibattito nei newsgroup online, non riuscì a persuadere i colossi del software dell’alba di internet. Trovavano più convincente la logica di Negroponte: l’azienda che avesse trovato il modo di setacciare il fiume digitale alla ricerca delle pepite d’oro avrebbe conquistato il futuro. Si aspettavano che presto l’attenzione sarebbe crollata, perché le scelte di cui ognuno poteva disporre stavano aumentando all’infinito.
Se si voleva guadagnare, bisognava attirare clienti. E in un mondo in cui l’attenzione era fugace, il modo migliore per farlo era offrire contenuti che corrispondessero veramente agli interessi, ai desideri e ai bisogni specifici di ognuno. Nei corridoi e nei centri di calcolo di Silicon Valley, la nuova parola d’ordine era diventata: rilevanza.
Tutti si precipitarono a creare un prodotto «intelligente». La Microsoft di Redmond immise sul mercato Bob – un intero sistema operativo che si basava sul concetto di agente, presentato da uno strano avatar disegnato che assomigliava molto a Bill Gates. A Cupertino, quasi dieci anni esatti prima dell’iPhone, la Apple introdusse il palmare Newton, un «segretario personale» il cui punto forte era l’agente che si nascondeva sotto la sua superficie beige.
Ma i nuovi prodotti intelligenti furono un flop. Nelle chat e nelle mailing list, tutti prendevano in giro Bob. Gli utenti non lo sopportavano. Pc World lo definì uno dei venticinque peggiori prodotti tecnologici di tutti i tempi.6 E il Newton della Apple non se la cavò molto meglio: sebbene l’azienda avesse investito più di 100 milioni di dollari per realizzarlo,7 nei primi sei mesi della sua esistenza vendette pochissimo. Quando si interagiva con gli agenti intelligenti della metà degli anni novanta, il problema appariva subito evidente: non erano poi così intelligenti.
Oggi, a più di dieci anni di distanza, questi geniali collaboratori non si vedono ancora. Sembra che la rivoluzione di Negroponte sia fallita. Quando ci svegliamo la mattina non informiamo un maggiordomo elettronico dei nostri desideri e progetti per la giornata.
Ma questo non significa che non esistono. Sono solo nascosti. Assistenti personali simili si celano sotto la superficie di ogni sito web al quale accediamo. Diventano ogni giorno più intelligenti e più potenti e accumulano sempre più informazioni su di noi e sui nostri interessi. E, come aveva previsto Lanier, non lavorano solo per noi, lavorano anche per i colossi del software come Google e ci fanno arrivare pubblicità, oltre che contenuti. Anche se non hanno la faccia da cartone animato di Bob, gestiscono una percentuale sempre maggiore delle nostre attività online.
Nel 1995, la gara per fornirci un prodotto che avesse una rilevanza specifica per ciascuno di noi era solo cominciata. Forse più di qualsiasi altro fattore, è stato questo obiettivo a fare di internet ciò che è oggi.
Il problema di John Irving
L’amministratore delegato di Amazon.com Jeff Bezos fu uno dei primi a rendersi conto che si poteva sfruttare la rilevanza per fare qualche milione di dollari. A partire dal 1994, la sua idea fu quella di riportare la vendita di libri online «ai tempi in cui i piccoli librai ci conoscevano bene e dicevano cose del tipo: “So che le piace John Irving e, pensi un po’, c’è un nuovo autore che assomiglia molto a John Irving”», ha dichiarato a un suo biografo.8 Ma come farlo su vasta scala? Secondo Bezos, Amazon doveva diventare «una specie di piccola società di intelligenza artificiale»9 che disponeva di algoritmi in grado di trovare immediatamente la corrispondenza tra clienti e libri.
Nel 1994, quando era un giovane ingegnere informatico che lavorava a Wall Street, Bezos era stato assunto da un investitore perché si facesse venire qualche idea commerciale per il nuovo spazio web in rapida espansione. Bezos lavorò diligentemente, gli presentò un elenco di venti prodotti che in teoria si sarebbero potuti vendere online – musica, abbigliamento, elettronica – e poi si mise a studiare la dinamica di ognuno di questi settori. All’inizio i libri erano in fondo alla lista, ma alla fine dell’indagine scoprì con sua grande sorpresa che erano arrivati ai primi posti.10
I libri erano il prodotto ideale per diversi motivi. Tanto per cominciare, l’industria editoriale non era centralizzata. La casa editrice più grande, la Random House, controllava solo il 10% del mercato.11 Se un editore non gli avesse venduto i suoi libri, ce ne sarebbero stati molti altri che lo avrebbero fatto. E la gente non ci avrebbe messo molto ad abituarsi a comprare libri online, come invece avrebbe potuto fare con altri prodotti – la maggior parte delle vendite di libri avveniva già al di fuori delle sedi tradizionali e, diversamente dai vestiti, non era necessario provarli. Ma il motivo principale era semplicemente il fatto che ce n’erano tanti: nel 1994 i titoli attivi erano 3 milioni, rispetto a 300mila titoli di cd.12 Una libreria reale non avrebbe mai potuto contenere fisicamente tutti quei libri, una libreria virtuale sì.
Quando riferì questo risultato al suo capo, l’investitore non apparve interessato. Nell’era dell’informatica, i libri gli sembravano un prodotto obsoleto. Ma Bezos non riusciva a togliersi quell’idea dalla mente. Senza un limite fisico al numero di libri che poteva avere in catalogo, avrebbe potuto offrire centinaia di migliaia di titoli in più dei giganti del settore come Borders o Barnes & Noble e, al tempo stesso, avrebbe potuto garantire un servizio più intimo e personalizzato delle grandi catene.
L’obiettivo di Amazon, decise, sarebbe stato quello di favorire il processo di scoperta: sarebbe stato un negozio personalizzato che avrebbe aiutato i lettori a trovare i libri e presentato i libri ai lettori. Ma come?
Bezos iniziò a pensare all’apprendimento automatico. Era un problema difficile da risolvere, ma un gruppo di tecnici e di scienziati aveva cominciato ad affrontarlo in istituti di ricerca come il Mit e l’Università della California a Berkeley fin dagli anni cinquanta. Avevano chiamato il loro campo di ricerca «cibernetica»,13 una parola presa in prestito da Platone, che l’aveva coniata per designare un sistema che si autoregola, come la democrazia. Per i primi cibernetici, non c’era niente di più eccitante che creare sistemi che si autoregolavano sulla base del feedback. Nel corso dei decenni successivi, avrebbero gettato le fondamenta matematiche e teoriche per lo sviluppo di Amazon.
Nel 1990, un’équipe di ricercatori del Centro ricerche della Xerox di Palo Alto (Parc) applicò la teoria cibernetica a un nuovo problema. Il Parc era famoso per la sua capacità di sfornare idee che poi venivano ampiamente adottate e commercializzate da altri, come l’interfaccia utente grafica e il mouse, per citarne solo due.14 E, come molti tecnologi all’avanguardia del tempo, i ricercatori del Parc furono i primi a fare un grande uso delle email, ne mandavano e ricevevano a centinaia. La posta elettronica era una grande invenzione, ma il suo lato negativo apparve subito evidente. Quando mandare un messaggio a tutte le persone che vogliamo non costa nulla, si fa presto a essere sommersi da informazioni inutili.
Per risolvere questo problema, l’équipe del Parc cominciò a pensare a un sistema che chiamò «filtraggio collaborativo»,15 inserito in un programma che battezzò «Tapestry». Tapestry registrava la reazione delle persone alla massa di email che ricevevano – quali aprivano, a quali rispondevano e quali cancellavano – e usava quelle informazioni per ordinare la casella della posta in arrivo. I messaggi ai quali le persone dedicavano più attenzione passavano in cima alla lista, quelli che venivano spesso cancellati o mai aperti restavano in fondo. In pratica, il filtraggio collaborativo era un modo per risparmiare tempo: invece di dover selezionare tutte quelle email da soli, si poteva contare sull’aiuto di qualcun altro che le preselezionava.
E naturalmente quel metodo non si poteva usare solo per le email. Come scrissero i suoi creatori, Tapestry «è progettato per gestire tutto il flusso di documenti elettronici in entrata. La posta è solo una parte di questo flusso, ci sono anche le notizie di agenzia e gli articoli di NetNews».16
Tapestry aveva presentato al mondo il filtraggio collaborativo, ma nel 1990 il mondo non era molto interessato. Dato che i su...