E’ il mio primo, involontario, click baiting. Se mi chiedo quanto pesa l’informazione non intendo dire quanta rilevanza abbia nella società o nella nostra dieta mediatica. E quando mi riferisco alle sue sovrastrutture, non sto puntando il dito contro la presunta opinione pre-orientata del giornalista di turno. Niente di tutto questo. Invece intendo ragionare, data una unità di misura quantitativa, su quanto sia grande il peso dell’informazione giornalistica in sé!

Mi perdoneranno i colleghi del Corriere se prendo a esempio un articolo della nostra testata ma perché nessuno si senta offeso e il senso del discorso sia del tutto generico, conviene partire da casa propria.

Il testo che segue è un estratto lungo 897 caratteri. Tutto il significato e la connotazione dei fatti che ci trasmette, l’informazione propriamente detta, è “grande” 897 caratteri (se vi interessa l’articolo, il link è sulla prima frase dell’estratto).

«Mi sento bene, grazie»

Ma in quel vuoto di novanta minuti la salute di Hillary diventa immediatamente il caso del giorno in tv, sui siti e sui social network. Su Twitter circola un video di 20 secondi, poi rilanciato dall’edizione online del Daily News. Hillary Clinton, sorretta da due collaboratrici, forse anche da Huma Abedin, l’assistente più stretta, è ferma sul marciapiede in attesa della macchina. Quando arriva il van di servizio prova a fare un passo, ma si piega sulle ginocchia. Accorrono gli agenti dei servizi segreti, ma Hillary sembra quasi tuffarsi sul sedile posteriore. Ricompare poco prima di mezzogiorno, esce da sola dalla abitazione di Chelsea, poco lontano dal celebre grattacielo Flatiron, percorre qualche metro sorridente, scherza con una bambina e risponde alla domanda di una giornalista di Fox Tv: «Oggi è una gran bella giornata a New York, mi sento bene, grazie».

Il testo racconta un fatto in modo esplicito ma la potenza dell’informazione che contiene va oltre ciò che è espresso. Ci racconta un po’ della persona Hillary Clinton, ci fa riflettere sulle sue frasi che hanno il fine di tranquillizzare e ci fa speculare se siano sincere o solo un’esigenza di comunicazione forzata in piena campagna elettorale; ci offre uno spaccato sull’organizzazione di un’uscita pubblica di un candidato presidenziale e inoltre ci fa ricondurre il contenuto a notizie precedenti e collegando i puntini interpretare questo fatto alla luce dei precedenti.

Se ci pensate, l’informazione trasmessa in appena 897 caratteri è tantissima. Se fosse una semplice cronaca del fatto descritto potrebbe essere ancora più asciutta, al costo di cedere un po’ di contenuto informativo. In ogni caso, 897 caratteri ci offrono una narrazione chiara e completa.

Adesso sappiamo quanto è grande questa informazione ma quanto “pesa”? Un informatico direbbe che dipende. In particolare e in primo luogo dipende dal tipo di rappresentazione tecnica che utilizziamo per trasmettere un carattere.

Nello standard ASCII (esteso), limitato ai simboli degli alfabeti occidentali più alcuni caratteri speciali, ogni carattere è rappresentato da un byte, il quale è composto da 8 bit. Senza entrare nel dettaglio per i non avvezzi ai tecnicismi, con 8 bit si possono rappresentare al più 256 diversi simboli. Sono insufficienti per rappresentare tutti i simboli delle lingue scritte del mondo ma sono generalmente sufficienti per larga parte del mondo occidentale e certamente per noi italiani.

Per ovviare alle limitazioni dello standard ASCII, sono nati altri standard che codificano ogni carattere con più bit in modo da ampliare il catalogo dei simboli disponibili. Nello standard chiamato UTF-8, in grado di rappresentare tutti i simboli degli alfabeti noti e anche emoticon e altre espressioni di significato diretto, i caratteri meno comuni richiedono più dati per essere rappresentati (fino a 4 byte, cioè 32 bit) mentre quelli più comuni ne richiedono solo uno, come per lo standard ASCII. Così nel nostro caso solo gli apici inversi e i virgolettati italici (meno comuni delle loro controparti semplici) aggiungono un po’ di peso al testo originale: arriviamo a 908 byte contro 897. Abbastanza vicino allo standard minimalista. Di conseguenza, per comodità di trattazione, diciamo dire che il nostro contenuto di informazione (la notizia coi suoi detti e i suoi non detti), “pesa” circa 900 byte indipendentemente dal formato tecnico.

Non siamo più abituati a inquadrare dimensioni così piccole, vivendo nel mondo dei gigabyte. Anni fa per avere un’idea avremmo ragionato sul fatto che si riuscisse o meno a farli stare su un floppy disk da 360KB (per i curiosi: sì, quasi 400 volte). Oggi, 900 byte sono tanti o sono pochi? Tanto per darci una unità di misura che ci permetta di avere una percezione di quanto pesano 900 byte, trasformiamo questo peso in tempo e calcoliamo quanto ci vuole per trasmettere i nostri dati da un punto A (per esempio uno dei server web del sito del Corriere) a un punto B (il vostro telefonino), , al netto di tutti gli altri tempi tecnici richiesti quali i tempi di attivazione della rete e quelli di contrattazione della domanda e della risposta. Ebbene, a seconda della tecnologia di rete mobile alla quale siamo connessi avremmo bisogno di:

  • 0,75s con un vecchissimo telefonino GSM
  • 0,2s con un vecchissimo telefonino GPRS (tipologia di rete anche ancora appare di tanto in tanto sui moderni smartphone, soprattutto nei tratti appenninici delle nostre strade e autostrade)
  • 0,06s con un vecchio telefono EDGE (anche lui non ignoto ai valicatori di montagne)
  • 0,02s in UMTS (il vecchio, caro 3G)
  • 0,01s in HSDPA (il precursore del 4G)
  • 0,002s in LTE (o 4G, come noto al pubblico)

Insomma, oggi con una connessione 4G servirebbero in linea teorica due millesimi di secondo (a seconda della fonte, la durata di un battito di ciglia o il suo doppio). Ricevuti i dati, il telefono passa qualche istante a elaborare il testo e a rappresentarlo sullo schermo e complessivamente, tra il momento in cui fate la richiesta e il momento in cui il testo è lì sul display pronto per essere letto dovrebbero trascorrere pochi decimi di secondo e soprattutto pochissimi dati, con beneficio anche per il portafogli.

Il condizionale è d’obbligo. Se il mondo fosse così semplice, riuscireste a scaricare l’articolo anche su tecnologie molto datate, anche mentre indossate il vostro cappotto di piombo nel piano interrato di una banca priva di segnale cellulare!Eppure anche un articolo così asciutto, al netto delle foto, non riuscirete a leggerlo con un telefono connesso alla rete EDGE. Il telefono si farà carico della vostra richiesta ma non riuscirà quasi mai a farvi vedere neanche il titolo del pezzo. Perché?

Perché la modernità del web che lo rende sempre più esteticamente e funzionalmente bello ha inquinato la purezza dell’informazione, sovrapponendole strati e strati di tecnologie a volte congrue e a volte semplicemente parassite (da un punto di vista tecnico e non solo). Gli abbellimenti grafici che vanno dalla grassettatura di porzioni specifiche di testo all’impaginazione tipografica più complessa, all’uso di font di caratteri precisi aggiungono peso incrementando marginalmente l’informazione; è indubbio che se ben usati aiutano la distinzione tra titolo, sommario, paragrafo, occhielli, richiami e facilitano la comprensione del testo ma la somma dei loro pesi va ben oltre quella necessaria per incrementare la chiarezza del testo. Pezzi di codice per il tracciamento finalizzato alla profilazione, tag pubblicitari e tracciamenti multipli per dimostrare che quel banner è stato effettivamente erogato, quel video visto, quell’immagine messa in overlay per il periodo di tempo concordato con l’autore, aggiungono peso su peso ma non incrementano affatto la quantità di informazione fornita all’utenteessendo questo peso tutto a vantaggio dell’informazione fornita esclusivamente a soggetti che sono “dietro” alla pagina. In più sono sovrabbondanti e ripetuti: non un tracciamento per la profilazione dell’utente, ma decine fino – in casi estremi – a centinaia di script che occupano risorse tecniche per finalità identiche e ripetute.

Tutta questa sovrastruttura di “tecnicalità” è onerosa sia in termini di peso sia in termini computazionali. Nel tempo si è cercato di ovviare ai problemi dell’ipertrofia del contenitore rispetto al contenuto informativo: si è prima introdotta nei browser la famigerata “cache”, una porzione di memoria nella quale tenere una copia di tutti quegli elementi che vengono riutilizzati in molte pagine di un sito e che quindi sarebbe stupido scaricare ogni volta (quella stessa cache che determina la più alta percentuale di chiamate agli helpdesk delle aziende di servizi online). Poi si sono differenziati sia il contenitore sia la forma tecnica del contenuto per ottimizzare il peso e la funzionalità sui diversi dispositivi di consumo utilizzati; il ragionamento in molti casi era semplice: perché inviare un’immagine di grandi dimensioni su un telefonino, vista la ridotta risoluzione grafica degli schermi? Oggi questa specifica ottimizzazione non ha quasi più senso e la complessità delle funzioni su uno smartphone spesso supera quelle dell’equivalente su personal computer.

Mettiamo a terra in modo pratico questo ragionamento astratto. Nel nostro esempio, questa sovrastruttura di abbellimenti e funzioni arriva a far pesare la pagina di quell’articolo, 2.080 KB (cioè circa 2.000.000 byte) se vista su un PC e 1.689KB (circa 1.600.000 byte) se vista su un telefonino. La cache aiuta un po’: rileggendolo una seconda volta scaricheremo solo 456KB su un PC (circa 450.000 byte) ma ancora 783Kb (780.000 byte su un telefonino). Da un lato miglioriamo un po’ il peso grazie alla cache ma proprio l’entità di questo abbattimento ci fa capire quanta sovrastruttura fissa si porta dietro una tipica pagina web.

Traduciamo questi nuovi pesi nella nostra unità di misura percepibile, il tempo. Per scaricare il nostro articolo su un telefonino impiegheremo al meglio (cioè in seconda lettura)

  • 65,2s in GSM
  • 17,8s in GPRS
  • 5,2s in EDGE
  • 1,6s in UMTS
  • 1s in HSDPA
  • 0,2s in 4G

Vuoto per pieno, impieghiamo 100 volte di più. Ecco perché non c’è speranza di riuscire a leggere l’articolo con una connessione di banda inferiore a quelle 3G. Il telefono o la rete il più delle volte ci escluderanno prima che il processo si concluda e molti sistemi di sicurezza che proteggono i siti web, diffidano delle connessioni molto lente perché potrebbero essere i precursori di attacchi che mirano a saturare le risorse disponibili (se il server sta rispondendo a richiedenti molto lenti, terrà in attesa quelli molto veloci).

Per aggiungere danno alla beffa, scrivevo poco sopra che tutta questa sovrastruttura che si porta dietro strati grafici, animazioni, font da attivare in memoria, video player, tracciamenti, flussi video e audio, richieste multiple a server multipli, oltre a occupare spazio in memoria e richiedere tempi più lunghi di trasmissione fa fare anche molto lavoro a tutto l’HW del device. Vi assicuro che disegnare una pagina web sullo schermo non è affatto un lavoro semplice per il vostro smartphone. Tanto peggio sarà stato scritto il codice della pagina, tante più volte il browser dovrò ridisegnare parti della pagina stessa fino ad arrivare alla soluzione finale della quale potrete godere.

Per analogia, immaginate che il browser lavori come un pittore: inizia a dipingere lo sfondo, poi vi sovrappone gli elementi stratificando le cose partendo dalla più lontana fino a dipingere quella più vicina. Se il pittore ha una idea chiara di cosa vuole dipingere, il suo piano di stesura del colore sarà ottimale e lui dipingerà tutti gli oggetti che ha in mente nell’ordine giusto e, soprattutto, lo farà una sola volta. Se invece non avesse un’idea chiara e si rendesse conto di voler introdurre un qualche elemento tra due elementi già disegnati, dovrà ridisegnare lo strato immediatamente inferiore al nuovo oggetto, aggiungere l’oggetto e poi ridisegnare parte di tutti gli strati successivi che vi si sovrappongono.

Incredibilmente questo algoritmo del pittore è ancora alla base della maggior parte delle tecniche di disegno digitale. Il browser si comporta esattamente come un pittore: prende il codice della pagina e i suoi contenuti, si fa un piano strategico per dipingere tutto nel modo migliore e più efficiente e inizia a disegnare dagli strati più in profondità via via arrivando a quelli in primo piano. Quando il questo piano di lavoro per la costruzione della pagina è troppo contorto o si va componendo strada facendo a seconda di come, quando e cosa rispondono tutti i server coinvolti, il browser dovrà ridisegnare più e più volte le stesse cose cambiandone e arrangiandone l’ordine.

Credo che abbiate già capito dove sto andando a parare. Cosa comporta questa complessità sovrastrutturale aggiunta al peso in sé della pagina? Determina un aggravio anche del “peso” in termini di tempo. Laddove nel caso migliore potremmo impiegare 0,2 secondi per portare l’informazione dal punto A al punto B, nel caso del test strumentale che ho fatto per scrivere questo post ci ho messo invece 3,7 secondi in seconda lettura sul mio smartphone modernissimo e sotto copertura 4G. E per essere onesti, NON è apparsa la pubblicità (che avrebbe reso il tutto ancora più lento).

Paghiamo un dazio assai rilevante alle “tecnicalità” della catena del valore del web. Il rapporto tra l’informazione propriamente detta (ciò che interessa al lettore) e la sovrastruttura di controllo va, nel nostro esempio, da un rapporto di 1:500 a 1:2300 su un PC e da circa 1:900 a 1:1900 su un telefonino! Per ogni pezzettino atomico di informazione che vi interessa, il vostro telefono ne riceve fino a 1900 che non vi aggiungono nulla, ma proprio nulla. Come dire che se volete mangiare un riccio di mare dovete portarvi via anche 180 kg di alghe.

Per qualsiasi informatico già solo questo rapporto, senza entrare nel merito delle ripercussioni pratiche, è un abominio contrario al significato stesso della parola “informatica”. In termini di informazione (intesa proprio come trasmissione di significato), siamo di fronte a un rapporto tra il segnale (il significato che ci interessa) e il rumore (la sovrastruttura tecnicamente non necessaria) del tutto inconcepibile. Nessuno oggi, partendo da zero, costruirebbe un sistema così. Volendo fare un’analogia in acustica, sarebbe come dare una notizia a una persona bisbigliandola dall’altro lato della stanza mentre all’ascoltatore leghiamo un’aspirapolvere accesa a mo’ di cuffia.

Questo rapporto tra segnale e rumore, informazione e sovrastruttura appena cinque anni fa, quindi già in presenza di strumenti di profilazione e erogazione pubblicitaria sufficientemente avanzati, si trovava nell’intervallo che va da 1:80 a 1:250 su un PC e da 1:30 a 1:150 su un telefonino. Lo abbiamo grosso modo decuplicato in cinque anni (e lo avevamo già più che decuplicato nei 15 anni precedenti) senza che l’abilità giornalistica o la capacità di comprensione del testo ne abbiano avuto alcun impulso positivo (anzi, a giudicare dalle discussioni che si possono leggere sui social network l’analfabetismo funzionale pare essere un tratto dominante della società digitale). I giornalisti scrivono oggi come allora e i lettori volenterosi sono informati oggi come allora.

Sommando la lentezza che ne deriva durante la fruizione dei contenuti che si suppongono “mobili”, “pervasivi”, “realtime”, distanti appena una “quick tap-distance” al fatto che strutturalmente i carrier non sono (più) attrezzati per rilevare trasferimenti di dati in quantità minime, il risultato è un percepito negativo del servizio da parte degli utenti che abbandonano le navigazioni prima che siano complete, adottando strumenti di minimizzazione del traffico e del peso dei contenuti (adblocker, script blocker, content reader) per migliorare i tempi di risposta e ridurre il traffico generato. Bisogna considerare che molti carrier misurano il traffico ancora o con arrotondamenti alle decine di megabyte o traducendo il tempo di connessione nel traffico teorico che si sarebbe potuto generare durante quel tempo.

Insomma, per leggere poche decine di articoli dei maggiori quotidiani nazionali si rischia di usare l’intero plafond mensile di 3GB che sta diventando la taglia minima di quasi tutti gli operatori. Per darvi ancora un metro di paragone fattuale, la Divina Commedia di Dante Alighieri nell’edizione del Petrocchi pesa, nella sua forma puramente testuale (cioè il 100% di informazione), 565KB. In 3GB ce ne stanno quasi 5.500 copie!!! 5.500 copie della Divina Commedia, non di commenti sulla farfallina di Belen.*

Un’industria sana anticipa il punto in cui la sua curva di agilità tecnica e la frontiera delle possibilità di produzione arriva al ginocchio, dando il “La” alla ricerca di soluzioni che permettano di preservare e magari migliorare il prodotto senza compromettere gli affari (o, se la vedete dal fronte manageriale delle vostre aziende, che permettano di preservare gli affari senza compromettere il prodotto). Eppure il Web, lo spazio tecnologico più avanzato e veloce degli ultimi 5.000 anni, è rimasto fermo a osservare le sue fragili ossa scricchiolare sotto il peso della propria ipertrofia e oggi stenta a trovare una strada comune per porre rimedio a questo pastrocchio. AMP, Facebook Instant Articles, Apple News sono tutte iniziative che in qualche modo indirizzano non strutturalmente il problema perché viziate dall’interesse finale di parte; soprattutto, rimarcano la prevalenza dei giganti della tecnologia sui centri di interesse distribuito che finora avevano guidato i processi di standardizzazione. Come a dire: il W3C, nella sua rigidità e lentezza, è ridotto a un mero ente di certificazione, spesso di pressioni tecnologiche di fatto che non di indirizzi ragionati e largamente condivisi. Fino al punto in cui l’HTML5 non vedrà mai una vera standardizzazione perché nella sua premessa il requisito di standardizzazione presuppone l’esistenza di almeno due browser totalmente identici quanto a funzionalità laddove mai come oggi le disparità di coverage funzionale tra i soggetti di mercato è ampia.

Allora forse è davvero troppo apocalittico chi prevede entro cinque anni la fine del web come noi lo conosciamo ma probabilmente hanno ragione quelli che lo vedono profondamente trasformato, piegato al ruolo di un grande serbatoio di operatori di servizi digitali intermediati da piattaforme proprietarie guidate dai soliti e dai futuri noti.

M.

* Senza sforzarsi troppo, è evidente che anche questo post è (volutamente) ipertrofico. Se avessi voluto solo trasmettere l’informazione che il rapporto tra ciò che leggiamo su un sito e la quantità di dati che abbiamo dovuto scaricare è troppo alto, avrei potuto usare una tabella e scrivere commento molto asciutto limitandomi a una condivisione. Ma avrei anche reso meno evidente e “visibile” il senso dell’aggettivo “ipertrofico” (e sepolto una buona parte del mio ego).

Il peso dell'informazione e le sue sovrastrutture. Il web è obeso?
In conclusione, di questo articolo pensate che
Completezza100%
Chiarezza100%
Lunghezza66%
Piacevolezza74%
Ci piace
  • Il contenuto
  • La completezza
  • La chiarezza
Non ci piace
  • La lunghezza
85%Gradimento complessivo
Voti lettori: (0 Voti)
0%
Il peso dell’informazione e le sue sovrastrutture. Il web è obeso? ultima modifica: 2016-11-30T17:48:52+01:00 da marcofan

Scrivi

La tua email non sarà pubblicata