Capitale algoritmico
eBook - ePub

Capitale algoritmico

Cinque dispositivi postmediali (più uno)

Ruggero Eugeni

  1. Italian
  2. ePUB (mobile friendly)
  3. Available on iOS & Android
eBook - ePub

Capitale algoritmico

Cinque dispositivi postmediali (più uno)

Ruggero Eugeni

Book details
Book preview
Table of contents
Citations

About This Book

Cosa facciamo oggi con le immagini? E soprattutto, che cosa le immagini fanno con noi e di noi? Questo libro cerca una risposta mediante l'analisi di cinque dispositivi (più uno): gli smart glasses, le camere a campo di luce, i visori notturni, la realtà aumentata, le reti neurali e la fotomicrografia elettronico-digitale. Le immagini computazionali, chiamate in queste pagine algoritmi, nascono dalla connessione di risorse appartenenti alla economia politica della luce e del visuale con quelle proprie dell'economia della informazione e dei dati. Algoritmi che sono, insieme, oggetti e strumenti della produzione, estrazione e distribuzione delle risorse comuni, al punto che "capitale algoritmico" è il nome il più appropriato per definire i tratti costitutivi della società post-mediale. Ruggero Eugeni insegna Semiotica dei media presso l'Università Cattolica del Sacro Cuore, a Milano e Brescia. Tra le sue pubblicazioni anche La condizione postmediale (La Scuola, 2015). Ha curato, con Giorgio Avezzù, l'edizione italiana del testo di Jean-Louis Baudry, Il dispositivo. Cinema, media, soggettività (La Scuola, 2017).

Frequently asked questions

How do I cancel my subscription?
Simply head over to the account section in settings and click on “Cancel Subscription” - it’s as simple as that. After you cancel, your membership will stay active for the remainder of the time you’ve paid for. Learn more here.
Can/how do I download books?
At the moment all of our mobile-responsive ePub books are available to download via the app. Most of our PDFs are also available to download and we're working on making the final remaining ones downloadable now. Learn more here.
What is the difference between the pricing plans?
Both plans give you full access to the library and all of Perlego’s features. The only differences are the price and subscription period: With the annual plan you’ll save around 30% compared to 12 months on the monthly plan.
What is Perlego?
We are an online textbook subscription service, where you can get access to an entire online library for less than the price of a single book per month. With over 1 million books across 1000+ topics, we’ve got you covered! Learn more here.
Do you support text-to-speech?
Look out for the read-aloud symbol on your next book to see if you can listen to it. The read-aloud tool reads text aloud for you, highlighting the text as it is being read. You can pause it, speed it up and slow it down. Learn more here.
Is Capitale algoritmico an online PDF/ePUB?
Yes, you can access Capitale algoritmico by Ruggero Eugeni in PDF and/or ePUB format, as well as other popular books in Literature & Literary Criticism Theory. We have over one million books available in our catalogue for you to explore.

Information

Publisher
Morcelliana
Year
2021
ISBN
9788828403531

Capitolo 1

Le molte vite dei Google Glass. Una introduzione ai dispositivi postmediali
Per i Wayana, un tema geometrico [che presiede all’intreccio di un oggetto in vimini] è il riflesso di una specifica conoscenza, chiamata wayaman, che è metaforicamente collocata nella pupilla di colui (o di colei) che conosce la tecnica del vimini. Il wayaman è la «figura rovesciata» di uno spirito in forma umana che si presenta nella pupilla di colui (o di colei) che fabbrica un oggetto e costituisce il vero «autore» di quell’oggetto.
Carlo Severi, L’oggetto persona

Lanci e rilanci

A prima vista è difficile trovare una strategia di lancio più demenziale di quella adottata per i Google Glass – lo strano occhiale ipertecnologico che incorpora un microcomputer, una videocamera, un minuscolo schermo trasparente collocato a pochi millimetri dalla pupilla dell’occhio destro dell’utente, e che offre la possibilità di interagire con le immagini che appaiono sullo schermo mediante comandi vocali e la superficie touch della stanghetta destra (fig. 1).

Fig. 1 - I Google Glass indossati da Sergey Brin (2013).

Benché un prototipo fosse già stato realizzato alla metà del 2011, la notizia ufficiale di un imminente lancio sul mercato dei Glass viene data nell’aprile 2012 mediante il video virale One day. Il 29 giugno 2012 nel corso della Convention Google I/O di San Francisco un gruppo di stuntmen dotati di Glass trasmette in diretta e in prima persona uno spettacolare lancio con paracadute sul tetto dell’edificio in cui si svolgeva l’evento. Nel settembre 2012 la stilista Diane von Furstenberg produce una narrazione in prima persona delle proprie sfilate newyorchesi con i Glass; un legame con il mondo della moda confermato in seguito da una joint venture del marzo 2014 con la Lux­ottica per la produzione di montature originali. Il 27 febbraio 2013 Sergey Brin, uno dei due fondatori di Google, tiene una applauditissima TED Conference di presentazione dei Glass (ci torneremo). Nell’aprile del 2013, 8000 influencer vengono coinvolti nel progetto “Glass Explorers”: avrebbero testato un prototipo del prodotto in vari ambiti (sport, moda, medicina, esercito, scuola) sia per fornire indicazioni agli sviluppatori, sia per fungere da “evangelizzatori” (questo il termine tecnico: il mondo della tecnologia digitale segue logiche sostanzialmente teologiche). Finalmente il 15 maggio 2014 il prodotto viene messo in vendita al prezzo di 1500 dollari: le reazioni sono pessime.
Le critiche si appuntano su tre aspetti. In primo luogo, le modalità di interazione con i Glass vengono percepite del tutto fuori luogo nelle situazioni di vita quotidiane: strofinarsi ripetutamente la stanghetta dell’occhiale mormorando parole smozzicate mentre si guarda nel vuoto non è propriamente un comportamento che incoraggia le relazioni sociali. Uno sketch del Saturday Night Live Show con Fred Armisen e Set Meyers trasmesso il 4 maggio 2013 illustra meglio di quanto possa fare io questo punto.
In secondo luogo, le app disponibili sono poche e malfunzionanti: nel marzo 2013 Google ha diffuso le Mirror API dei Glass (le specifiche interfacce di programmazione), rendendo quindi possibile lo sviluppo di applicazioni di terze parti per il dispositivo; tuttavia (a parte le app di sistema) solo quelle di Twitter, Facebook, «New York Times» e poche altre sono disponibili al momento del lancio. Inoltre, il loro utilizzo non è semplice: per esempio, si può caricare immediatamente una immagine sul proprio profilo social, ma è molto più complicato aggiungere un commento o un ashtag che non sia il preimpostato #throughglass. Probabilmente, come suggerisce Alaistair Barr sul «Wall Street Journal», Google sta cercando di applicare ai Glass la tattica usata nella costruzione di software, che consiste nel rilascio di versioni beta ancora imperfette, nella raccolta dei problemi che nascono dall’uso e quindi nella messa a punto finale del prodotto; ma l’hardware dei Glass è più difficile da modificare in tempi brevi rispetto a un prodotto software. In sintesi, come ha scritto Paul Miller sulla rivista di tecnologia «The Verge», «dobbiamo complimentarci con Google per aver costruito un computer indossabile che è veramente utilizzabile. Ma quand’è che qualcuno costruirà un computer indossabile che sia veramente utile?».
Infine, i Glass sollevano alcuni problemi relativi alla privacy. Benché una piccola luce segnali il funzionamento delle riprese video, i Glass sono “crackabili” in modo da eliminare questa caratteristica. Inoltre, una volta avviato il “debug mode”, è possibile caricare app di terze parti non approvate da Google ma molto più divertenti di quelle ufficiali (il cosiddetto “Glassware”): per esempio Winky, che permette di scattare una fotografia con una semplice strizzata dell’occhio destro. Il Congresso americano richiede formalmente a Larry Page, uno dei fondatori e in quel momento amministratore delegato di Google, assicurazioni in merito alla protezione della privacy; Page fornisce ampie rassicurazioni, ma nello stesso momento aziende specializzate nel riconoscimento facciale quali Lambda Labs e Rekognition stanno sviluppando app “Glassware” che vanno nella direzione opposta.
Nel complesso, dunque, il Glass project sembra la cronaca di un fallimento annunciato: un prodotto ancora imperfetto viene lanciato senza specificarne esattamente i possibili utilizzi nella vita quotidiana; o meglio ancora, fornendo troppe indicazioni circa i possibili utilizzi: lo sport, la moda, la telemedicina, la difesa, la sorveglianza, le interazioni immediate con altri soggetti e su social… E senza considerare i rischi relativi alla privacy che essi implicano. Così il 15 gennaio 2015 arriva da parte di Google l’annuncio del blocco della produzione dei Google Glass.
Un epic fail dunque? No, o almeno non del tutto. Per due ragioni. In primo luogo i Glass hanno anticipato alcune tendenze che sarebbero poi state realizzate con successo: l’utilizzo di una interfaccia vocale, che sarebbe esplosa in termini commerciali soprattutto con Amazon Alexa dal 2014 in poi; la diffusione di computer indossabili e ubiqui, alla base del successo dell’Apple Watch, immesso sul mercato nel 2015; la realtà aumentata geolocalizzata, che sarebbe stata popolarizzata dal lancio del gioco Pokemon Go! nel 2016 (gioco che nasce peraltro da una collaborazione della giapponese Nintendo con Google Maps); o infine gli smartglasses per realtà aumentata, virtuale o mista che avrebbero visto un certo successo nel 2016 con l’introduzione dei Microsoft Hololens o degli Oculus Rift (ne riparliamo nei capitoli 2 e 4).
In secondo luogo, i Glass non sono affatto morti. Come ho accennato, in contemporanea con il lancio dei Glass come dispositivo mediale da introdurre nelle pratiche di vita quotidiana, Google ne studiava e incoraggiava alcuni utilizzi professionali. Questo orientamento si è rivelato vincente dal punto di vista commerciale. Nel luglio 2017 Google ha introdotto la prima Google Glass Enterprise Edition, mentre nel maggio 2019 è stata introdotta la seconda versione. Lontano dai clamori degli annunci pubblici e dei media, grazie ad una clientela di alto livello (Boeing, DHL, General Electrics…) e alla collaborazione con aziende di software specializzate in prodotti per le aziende (UP Skill), l’esercito (APX Labs) o la medicina (Augmedix) i Glass sono divenuti i leader di mercato nel segmento degli “optical head-mounted displays”, dispositivi professionali che consentono di lavorare ricevendo al tempo stesso informazioni in tempo reale e mantenendo le mani libere. A partire da queste applicazioni, vari utilizzi dei Glass iniziano a essere prospettati: per esempio nel marzo 2019 «The Journal of the American Medical Association» ha pubblicato un articolo che illustra come i Glass, utilizzando un software di intelligenza artificiale che riconosce le espressioni emotive espresse dai volti e le traduce in emoticons, aiuti i bambini autistici a migliorare la comprensione degli stati interiori altrui.
Tutte le caratteristiche emergenti dal mio veloce racconto fanno dei Glass un perfetto esempio di dispositivo postmediale: una macchina cioè che esibisce immagini a partire da set dinamici di dati digitali; che opera all’interno di una interazione in atto tra i soggetti e il mondo che li circonda; che contribuisce a determinare andamenti ed esiti di tale interazione; e il cui ambito di intervento si estende trasversalmente oltre i confini dei media in senso stretto. Insomma: i Google Glass si prestano bene a introdurre alcune idee generali che guideranno le analisi dei differenti dispositivi postmediali nel seguito di questo libro. Il lettore dovrà accontentarsi per il momento di concetti e propositi più abbozzati che sviluppati: nell’ultimo capitolo (cui questo primo rimanda) svilupperò ex post questa cornice teorica e metodologica in forma un po’ più sistematica.

Apparecchi, assemblaggi, apparati

I Google Glass in versione Explorers (la versione non-professionale di cui abbiamo parlato sopra: fig. 2) consistono in una montatura al titanio simile a quella di un paio di normali occhiali, che sorregge (oltre a eventuali lenti da sole o oculistiche) un piccolo display collocato davanti all’angolo superiore destro della lente di destra. Il display è un Himax HX7309 con una risoluzione di 640 × 360 pixel; lo schermo a cristalli liquidi su silicio (LCoS, o modulatore di luce spaziale) utilizza una tecnologia che consente la proiezione di immagini ed elementi grafici su una superficie prismatica trasparente: una serie di ulteriori componenti correggono la traiettoria dei raggi luminosi in modo da produrre una loro “collimazione”, ovvero in sostanza il loro apparire a fuoco rispetto all’occhio dell’utente dei Glass (fig. 3). Il dispositivo incorpora inoltre un microcomputer (collocato nella stanghetta destra); una memoria da 16 GB (di cui 4 occupati dal sistema operativo); una videocamera capace di riprendere alla risoluzione di 720p HD; apparati di trasmissione e ricezione di dati sia WI-FI che Bluetooth; un giroscopio, un accelerometro e un magnetometro (o bussola) a 3 assi; un sensore di luce e...

Table of contents

  1. Introduzione
  2. Capitolo 1
  3. Le molte vite dei Google Glass. Una introduzione ai dispositivi postmediali
  4. Capitolo 2
  5. Capitolo 3
  6. Capitolo 4
  7. Le costellazioni della realtà estesa. I modi di presenza delle immagini
  8. Capitolo 5
  9. Reti Generative Avversarie. Quando le macchine imparano a produrre immagini
  10. Capitolo 6
Citation styles for Capitale algoritmico

APA 6 Citation

Eugeni, R. (2021). Capitale algoritmico ([edition unavailable]). Morcelliana. Retrieved from https://www.perlego.com/book/2806472/capitale-algoritmico-cinque-dispositivi-postmediali-pi-uno-pdf (Original work published 2021)

Chicago Citation

Eugeni, Ruggero. (2021) 2021. Capitale Algoritmico. [Edition unavailable]. Morcelliana. https://www.perlego.com/book/2806472/capitale-algoritmico-cinque-dispositivi-postmediali-pi-uno-pdf.

Harvard Citation

Eugeni, R. (2021) Capitale algoritmico. [edition unavailable]. Morcelliana. Available at: https://www.perlego.com/book/2806472/capitale-algoritmico-cinque-dispositivi-postmediali-pi-uno-pdf (Accessed: 15 October 2022).

MLA 7 Citation

Eugeni, Ruggero. Capitale Algoritmico. [edition unavailable]. Morcelliana, 2021. Web. 15 Oct. 2022.