Digital Divide

in maggio 23, 2009

E’ il divario esistente e persistente tra chi può accedere alle nuove tecnologie digitali e chi invece non può.  Ma è definito anche come la distanza che separa la parte della popolazione mondiale ricca di informazioni, con un’alta istruzione e maggiori risorse economiche, da quella povera di informazioni, caratterizzata da livelli di istruzione bassi, povertà economica, dalle minoranze sociali ed etniche. E’ noto che le nuove tecnologie come Internet hanno una fruizione non omogenea, una differenza che si nota soprattutto tra la parte industrializzata del mondo e quella povera. L’analisi però si orienta su prospettive sia nazionali sia transnazionali.

Solitamente le cause sono riconducibili all’assenza di infrastrutture che collegano la rete, in particolare quelle a banda larga, e all’analfabetismo informatico degli utenti.

Il Digital Divide è un fattore determinante nella società dell’informazione che si nutre di conoscenza. Le risorse economiche, informative, tecnologiche sono distribuite nella società globale, come dimostra la legge di Pareto, in maniera diseguale tra ricchi e poveri. L’80% delle risorse è nella mani del 20% della popolazione. Allo stesso modo  sono redistribuite le conoscenze e gli strumenti informatici che permettono l’accesso e lo sfruttamento della rete telematica. Il nuovo sistema economico mondiale è destinato a spostare le proprie richezze primarie proprio su queste risorse. Chi possiede queste facoltà, e queste capacità e questo know how ha diritto a sfruttare le conoscenze, a manipolare le informazioni e a progettare le nuove tecnologie.

Una delle gravi conseguenze del DD è il danno alle economie delle popolazioni con alto tasso di analfabetizzazione informatica che è anche causa del divario digitale in un circolo vizioso. La sociologia della comunicazione studia gli effetti di questo fenomeno globale nelle teorie del Knowledge Gap.

A livello globale l’organo compentente atto a contrastare il divario digitale è stato creato dall’ONU con l’istituzione del  UNITeS (servizo delle Nazioni Unite per la Tecnologia e l’Informazione), che propone di costituire un’organizzazione di volontari che lavorano per diffondere le competenze informatiche nei paesi in via di sviluppo. Inoltre le Nazioni Unite hanno promosso una Rete Sanitaria di siti on-line per gli ospedali e le strutture sanitarie dei paesi più poveri di risorse.

Il divario in Italia si percepisce chiaramente dalla scarsa copertura della banda larga, strumento fondamentale per l’accesso completo alle risorse della rete. Milioni di cittadini residenti fuori dai grossi centri abitati ne sono esclusi, e non esiste una legge che ne obblighi la fornitura per tutti. La copertura è nettamente sotto la media europea e non esistono alternative Wi-fi, la tecnologia via etere, e con grave ritardo è stata conclusa l’assegnazione delle licenze del WiMax. Questa nuova tecnologia senza fili (attraverso le microonde) permette la trasmissione della banda larga a grandi distanze. L’asta pubblica ha assegnato le licenze alla società Aria, di capitali israeliani e americani, a Telecom Italia, a E-Via del gruppo Retelit, a Brennercom, a Linkem, al gruppo Mgm product profit, spartite per macroaree e aree regionali. Ma nessuno sa bene cosa queste telcom ne faranno, perchè la fornitura di servizi WiMax per ora non sembra molto redditizia. Inoltre non è stata assegnata una licenza pubblica, perciò avremo forse solo un servizio a pagamento.

La razionalizzazione delle frequenze tv attraverso la digitalizzazione del DTT ha un ruolo molto importante per dare spazio alle trasmissioni senza fili per Internet.

Il 4G (inteso come quarta generazione della telefonia mobile), che sfruttando le reti UMTS della telefonia mobile può portare la banda larga a grandi distanze, utilizza infatti delle frequenze al di sotto del GHz (le migliori per propagazione e capacità di trasporto dati) che erano usate per i segnali tv (800 MHz). Le reti LTE (Long Term Evolution) stanno progressivamente coprendo una grande porzione del territorio nazionale. Tim è arrivata a 1.138 Comuni, pari a “oltre il 60,5% della popolazione italiana”, fa sapere l’operatore, che conta di arrivare a oltre l’80% entro il 2016, e di coprire entro la fine dell’anno tutti i centri con più di 35 mila abitanti. Telecom Italia ha investito oltre 3,4 miliardi di euro nel triennio 2014-16. Vodafone invece ha reso noto ad agosto 2014 di aver raggiunto 800 Comuni e 300 località turistiche. Con il piano Spring investe 3,6 miliardi in Italia per portare il 4G al 90% della popolazione entro il 2016. La rete 4G viene estesa ogni mese, e già oggi oltre il 60% della popolazione italiana ha la possibilità di accedere alla banda ultra larga mobile di Vodafone Italia.

3 Italia ha raggiunto 280 tra città e località turistiche, pari al 32% della popolazione, mentre Wind ha appena attivato il 4G a Roma, Milano e Bologna, ma anche in alcuni siti ad altissima domanda come come gli aeroporti di Fiumicino, Linate, Malpensa, Orio al Serio, Venezia, Bologna, Catania, la Fiera di Rho, il Politecnico di Milano, la Sapienza di Roma. Wind inoltre conta di estendere nel corso del 2014 la copertura della sua rete LTE progressivamente a circa 20 primarie città italiane.

Mentre ancora siamo in fase di completamento della copertura LTE, tutti gli operatori stanno già sperimentando l’evoluzione dello standard, e cioè l’LTE Advanced. TIM e Vodafone sono pronti a introdurlo già entro fine anno. In estate TIM ha annunciato “il primo test live dell’LTE Advanced” aperto al pubblico (a Torino), con prototipi di chiavette abilitate alla nuova tecnologia, mentre Vodafone a febbraio aveva già annunciato il primo test (in laboratorio) del nuovo standard. Il principale vantaggio dell’LTE Advanced è la tecnologia ”carrier aggregation”, che consente agli operatori appunto di aggregare frequenze di diverse porzioni di spettro e così arrivare a supportare i 300 megabit. Gli attuali standard LTE usati dagli operatori richiedono frequenze attigue, e nessuno di essi arriva a 20 MHz (tranne Wind), e quindi può superare i 100 Megabit. Grazie alla carrier aggregation e a qualche aggiustamento nell’uso delle frequenze, è possibile arrivare a 40 MHz e quindi a 300 Megabit, con una fase intermedia (fine 2014-inizio 2015) intorno ai 200 Megabit.

La carrier aggregation permette solo di guadagnare tempo su questo fronte, ma in realtà diventerà presto pressante fornire nuove frequenze agli operatori. Solo così sarà possibile toccare le velocità permesse dalle evoluzioni dell’LTE (fino a 1 Gigabit). Il Ministero dello Sviluppo ha annunciato un intervento normativo già per settembre 2014, e anche l’Autorità garante delle comunicazioni sta lavorando su questo tema. Un problema è liberare la banda 700 MHz (UHF), che ora è utilizzata dai servizi tv. Il nuovo Piano Frequenze, a quanto si legge in una delibera Agcom pubblicata ad agosto, prevede che da settembre 2015 quattro frequenze (dal canale 57 al 60 dell’UHF) dovranno essere liberate per la banda larga mobile. Lo richiede la normativa internazionale, e l’Italia deve per forza adeguarsi. Agcom sta inoltre studiando un piano per offrire frequenze molto alte (28 GHz, 3,6-3,8 GHz), che però interessano soprattutto chi offre servizi fixed wireless broadband (tipo Wimax). Quelli mobili hanno bisogno, per motivi tecnici, di frequenze più basse: oggi l’LTE in Italia sfrutta le fasce 800, 1800 e 2600 MHz.

Il consorzio IEEE ha recentemente pubblicato uno standard di protocolli per le connessioni wireless che sfruttano le frequenze lasciate libere dalla tv analogica per portare Internet in quelle regioni montane e rurali in digital divide. Il nuovo  standard 802.22 nasce per realizzare delle WRAN, Wide Regional Area Network, utilizzando le bande UHF e VHF. Queste frequenze permettono di coprire un’area del raggio di 100 Km con una velocità massima di 22 Mbit/s per canale.

Il mondo industrializzato produce ogni anno tonnelate di spazzatura hardware provocate dal consumismo, dal mercato e dallo sviluppo tecnologico. Ma proprio grazie ai rifiuti informatici e tecnologici si è avviata una pratica per fronteggiare almeno in parte in digital divide. Il recupero di vecchio materiale hardware, la ricomposizione in nuovi apparecchi funzionanti, chiamato trashware, consente la fornitura volontaria e gratuita alle popolazioni, ai paesi e agli enti locali di computer e tecnologie per approcciarsi alla rete. Solitamente a questa pratica solidale, in linea con lo spirito di libertà dell’iniziativa, viene affiancata  la distribuzione di software libero, fondato dalla Free Software Foundation di Richard Stallman, che professa l’eliminazione delle restrizioni sulla copia, sulla redistribuzione, sulla comprensione e sulla modifica dei programmi per computer.

Banda Larga

Secondo gli ultimi rilevamenti dell’Istat in Italia (2014) il 59,7% delle famiglie può connettersi tramite ADSL in banda larga. Siamo però lontanissimi dai 100 Megabit, perché nella definizione rientrano velocità di collegamento da 2 Mbps. Esiste poi un 4% di popolazione (2,3 milioni secondo dati Agcom) per cui collegarsi a Internet via cavo è ancora impossibile.

Banda Ultra Larga

Secondo lo studio di SosTariffe del febbraio 2014, la banda ultra larga, a 30 o 100 Megabit, in Italia è un fatto per pochi fortunati, pari al 15% circa della popolazione, che vivono nei quartieri migliori di 33 città (capoluoghi di provincia) italiane. Questi possono contare sui servizi internet ultra veloce di due, tre o addirittura – nel caso di Milano – quattro operatori. Lo studio distingue le tecnologie di collegamento via cavo in ADSL (7-20 Mbps max), VDSL, VDSL2 (basata sul sistema FTTC, acronimo di Fiber to the Cabinet da 60-80 Mbps reali) e Fibra ottica (FTTH – Fiber to the home 100 Mbps).

Lo studio di Sos Tariffe dedica poi una voce delle sue tabelle comparative alle offerte ADD, Anti-Digital Divide, un espediente che soprattutto Telecom Italia usa per raggiungere con un’ADSL di base alcune zone svantaggiate perché collegate da centraline non raggiunte dalla fibra, si legge nella documentazione. Succede così che queste centraline siano collegate ad altre relativamente vicine (pochi km), che sono invece raggiunte dalla fibra creando un collegamento con cavo di rame. Il risultato, però, non supererebbe i 640 Kbps, a prezzi leggermente più economici delle Adsl tradizionali.

Internet è una risorsa importantissima per lo sviluppo del territorio e delle aziende. Queste ultime, più che mai, hanno bisogno di una rete sicura, stabile e veloce. Disporre di una connessione performante è di grande ausilio sia per la riduzione dei costi, sia per le possibilità di espansione dell’attività, sia per l’organizzazione del lavoro. Si pensi ad esempio alla possibilità di sfruttare la videoconferenza o il telelavoro. Secondo uno studio risalente al secondo semestre del 2014 dell’Osservatorio di Between SPA, dei 90 distretti principali, solo il 19% delle aziende ha accesso alla banda ultra-larga, con una velocità in download superiore a 30Mbps; il 16%, invece, non raggiunge la connessione a 20 Mega. La velocità media di connessione raggiunta è di appena 4,7 Mbps. Rispetto all’anno scorso, secondo Between, non ci sarebbero stati progressi significativi.

Tutti gli altri – e sono soprattutto al Sud o nelle periferie delle grandi città come Roma – invece niente: si devono accontentare di un’Adsl a 20 Megabit (se va bene). Una situazione che ci rende il Paese europeo con le connessioni internet più lente. Dopo circa dieci anni di stasi è comunque cresciuto il livello di copertura, che rimane tra i più bassi d’Europa. Si pensi che nel 2013 solo il 10% della popolazione era raggiunto da banda ultra larga. Telecom Italia e Fastweb hanno cominciato grandi lavori di scavo, nei mesi scorsi, e così si è arrivati all’attuale 15 per cento di copertura (18%, secondo una fonte diversa, l’Osservatorio banda larga di Between).

Secondo gli ultimi dati relativi al secondo trimestre 2014, in Italia si è superata la soglia dei 500mila contratti attivi, con un trend di netta crescita negli ultimi tre mesi. A marzo 2014 l’Autorità Garante per le Telecomunicazioni (Agcom) contava 310mila utenti attivi sulla fibra ottica, secondo stime non ufficiali di alcuni esperti del settore, sei mesi più tardi questi utenti sono raddoppiati (dato aggregato dei clienti Fiber To The Home, FTTH, e Fiber To The Cabinet, FTTC).  Stando al recente Report Agcom, tra il primo trimestre 2013 e il primo trimestre 2014 gli accessi alla banda larga sono cresciuti di 220mila unità (arrivando a 310mila totali), di cui 130mila (il 60% circa) attivati da dicembre 2013 a marzo 2014. Buona parte di questo aumento è dovuto a linee con tecnologia NGAN: grande impulso è arrivato dagli investimenti sull’estensione della rete FTTC (Fiber To The Cabinet), che hanno portato all’espansione della rete in fibra preesistente.

Connessioni mobili

I collegamenti attraverso chiavetta USB, che si agganciano al segnale 3G o 4G dei telefonini, sono molto diffusi in Italia. Nei luoghi in cui il 4G è già disponibile, si possono raggiungere velocità di collegamento seconde solo alla fibra ottica, misurabili in circa 60 Mbps, secondo Sos Tariffe. Ma il segnale 4G è ancora male distribuito in Italia (30% della popolazione).

Banda larga satellitare

Secondo i dati riportati da Sos Tariffe, il collegamento a Internet tramite parabola può garantire da 1 a 20 Mbps reali. La proposta WebSat di Digitaria offre tre pacchetti da 30 fino a 70 euro mensili che spaziano da 10 a 20 Megabit al secondo (teorici). I prodotti Satlink , invece, variano da 512 Kbit a 8 Mbps con una bella escursione, però, tra il canone minimo a quello massimo: da 39 a 129 euro. Europe Online fa poi un’offerta composita, che include anche accesso a contenuti quali film e giochi, per un canone annuale di 189 euro e 2 Mbps di velocità garantita.  A tutto ciò si devono sempre aggiungere i costi di installazione e di acquisto o noleggio del kit satellitare. E si parla di cifre che possono variare, per l’acquisto, da poco più di 300 euro fino a più di 700.  Lo studio di Sos tariffe si concentra invece su un solo prodotto, sia pure distribuito da diversi rivenditori: Tooway, con tariffe comprese tra 32 e 85 euro circa.

Come rilevato dallo studio quasi tutte le offerte, anche quelle più costose, hanno un limite mensile di gigabyte che per alcuni può risultare molto abbondante, per altri può risultare particolarmente restrittivo. Anche il sistema di trasmissione dati satellitare rischia di degradare se è congestionato o saturo, e a questo si devono i limiti sopra menzionati, onde evitare una cattiva distribuzione del servizio fra i diversi utenti. Un secondo problema evidenziato dallo studio è il tempo di latenza di questo tipo di collegamenti: il dato deve essere inviato a un satellite che dista 35mila km e ricevuto dallo stesso. Quindi i tempi di latenza rendono poco reattiva la navigazione e impediscono o limitano fortemente certi utilizzi come il gioco on-line e la videoconferenza.

Malgrado ciò, la conclusione di Sos tariffe è che la soluzione satellitare è una delle opzioni principali da tenere in considerazione, dato che si tratta di una delle tecnologie che ha subito una forte evoluzione in positivo negli ultimi anni, divenendo oggi adatta anche alla clientela consumer. È certamente vero i satelliti sono in grado di raggiungere anche aree montane e rurali finora escluse dalle normali linee Adsl e, magari, coperte con difficoltà dalle reti di telefonia mobile. Non bisogna dimenticare che l’Italia condivide gli obiettivi dell’Agenda Digitale Europea, tra cui quello di permettere, entro il 2020, di fare navigare tutti i cittadini europei a 30 Mbps. E in Italia gli operatori lavorano per coprire con la banda ultralarga almeno metà del Paese entro il 2016.

Bibliografia e sitografia

Lievrouw, L. A., Livingstone, S., a cura di, Capire i new media, Milano, Hoepli, 2007.

Menduni, E., I media digitali, Bari, Editori Laterza, 2007.

Sias, G., La teoria del knowledge gap, Cagliari, Punto di fuga editore, 2006.

Van Dijk, J., Sociologia dei nuovi media, Bologna, Il mulino, 2002.

it.wikipedia.org/wiki/Digital_divide

www.audiweb.it

www.sostariffe.it

www.between.it/ita/osservatorio-banda-larga.php

Scritto da