di Mario Braconi

Ci sono ragioni politiche intuitive per le quali la Rete preoccupa i potenti: l’anarchia creativa, l’assenza di un centro di controllo, possibilità pressoché illimitate di comunicare, interagire, condividere, incontrarsi, divertirsi, anche fuori dai canali “ufficiali” e mainstream. Per tentare di mettere le mani su questa cosa fin troppo libera che si chiama Internet senza scatenare una rivoluzione, è necessario far leva su argomenti un po’ diversi (che poi sono sempre gli stessi) il pericolo e la scarsezza: ovvero, attenti, “la Rete è pericolosa” e “la Rete è congestionata”, anche per colpa vostra con tutti quei video che caricate e guardate (senza nemmeno pagare royalty!). Ovviamente, il primo argomento è il migliore amico di chi vuole ficcare il naso nella vita di tutti gli internauti (anche se dice di voler perseguire i criminali), mentre il secondo giustifica i patti scellerati che alcune società internet (in primis Google) stanno cercando di stringere con i fornitori di banda, realizzando le condizioni tecnologiche per una discriminazione dell’accesso sulla base dei contenuti. Di questo passo qualcuno potrà decidere che cosa può essere messo in Rete e che cosa no, un po’ come accade nella Repubblica Popolare Cinese. Riferisce il New York Times che perfino i network militari (teoricamente i meglio protetti) possono divenire preda di attacchi informatici: nel novembre del 2008, ad esempio, si è scoperto che la rete informatica del comando militare con competenza su Iraq ed Afghanistan è stata infettata da un software maligno in grado di consentire atti di spionaggio “devastanti”. Come se non bastassero i disastri “reali” della guerra, ci si mettono anche quelli “virtuali”… Per questo si fa un gran parlare della cosiddetta Nuova Internet, sulla quale, tra gli altri, si stanno esercitando gli ingegneri del “Clean Slate” (tabula rasa), un “gruppo interdisciplinare” costituito qualche anno fa presso l’Università di Stanford con l’obiettivo dichiarato di “reinventare Internet”: consentire l’utilizzo e la messa a disposizione in rete di nuovi applicativi e servizi (ad esempio reti di sensori fisici per monitorare fenomeni fisici, metereologici, perfino sociali), migliorare l’accesso alla rete da parte dei dispositivi mobili (una delle promesse non mantenute della rete UMTS) e, soprattutto, aumentare la sicurezza, attraverso nuovi hardware e software specifici codificati direttamente nelle macchine che ne costituiscono il sistema nervoso.

Anche se l’impressione è che “Clean Slate” non abbia finora prodotto importanti innovazioni - a meno che esse non siano talmente rivoluzionarie da essere state tenute riservate - il sito istituzionale del progetto non contiene aggiornamenti successivi al 2008. Un dato è chiaro: si va verso la creazione di una comunità chiusa da un recinto, in cui gli utenti siglano un patto che prevede la rinuncia all’anonimato in cambio di sicurezza.

Un progetto tanto deplorevole quanto difficile da realizzare: secondo John Markoff (esperto di informatica e columnist del New York Times) pare che qualche “cervellone” abbia proposto perfino di dotare gli internauti di una specie di “patentino di navigazione”: peccato che “provare la propria identità (in modo certo ndr) continuerà ad essere notevolmente difficile in un contesto in cui con un software maligno operato dall’altro capo del mondo è facile, perfino banale, assumere il controllo della macchina di qualcuno per farla funzionare esattamente come se fosse la propria.

Altro tema assai dibattuto è la Net Neutrality (ovvero Neutralità della Rete, N.N.), cioè il principio secondo cui dovrebbero essere “gli utenti a controllare i contenuti che vedono e le applicazioni che usano su Internet; così come le società telefoniche non possono decidere chi gli utenti possono chiamare e quello che devono dire nelle loro telefonate, allo stesso modo ai carrier di banda non dovrebbe essere consentito di usare il proprio potere per controllare le attività online” (dal sito istituzionale di Google).

Per usare le parole di Richard Whitt, Senior Policy Director della “Grande G”, azienda ufficialmente schierata a favore della N.N., vi sono pratiche accettabili e altre da condannare: tra le prime, dare priorità ad alcune applicazioni appartenenti genericamente ad una data categoria (ad esempio gli streaming video), bloccare determinate forme di traffico su indirizzi IP per proteggere gli utenti da attacchi, virus e “worm”; fare local caching (cioè collocare su server connessi ad alta velocità a network regionali copie dei file più richiesti, in modo da consentire agli utenti di connettersi ad essi in modo più veloce, evitando nel contempo congestioni in aree lontane da quella in cui il file viene richiesto); fornire contenuti proprietari (ad esempio televisione su IP); fatturare ai consumatori una tariffa supplementare per avere maggior velocità di connessione.

Questa lista di “autoassoluzioni” fa storcere la bocca ai puristi, convinti che ogni misura che permetta di navigare con lo sprint dopo aver sganciato qualche dollaro in più collida con i principi libertari impressi nel DNA della Rete e fatti propri da quasi tutti i suoi utenti. In un celebre articolo del 15 dicembre del 2008 il Wall Street Journal ha attaccato frontalmente Google, sostenendo di essere entrato in possesso di documenti riservati secondo cui il colosso di Mountain View “si sarebbe fatto avanti con le principali società di servizi via cavo e telefoniche che forniscono anche servizi Internet con la proposta di creare una ‘corsia di sorpasso’ per i propri contenuti.”

Secondo Ben Scott, dirigente di Free Press (un gruppo di pressione che si batte per l’indipendenza dei media negli USA) sentito dal quotidiano finanziario, “qui si parla di vendere il diritto di saltare la fila; ora la prima parte del business plan di qualsiasi internet company sarà incontrare i rappresentanti della AT&T per ottenere un posto in prima fila, questo è una vera maledizione per una cultura dell’innovazione”.

Secondo il Wall Street Journal, il fatto che Google abbia pensato di collocare i suoi server per il caching direttamente all’interno del network dei fornitori di banda costituirebbe un’abiura del principio di N.N., da sempre ufficialmente propugnato dalla Casa. Ovviamente, Google la vede in modo diametralmente opposto: secondo Richard Whitt, “gli eventuali accordi che verranno stipulati con i provider di banda non sono in esclusiva e, quindi, qualsiasi altra società può stringere patti di questo genere (anche se Google non è un proprio l’ultimo arrivato, dato che ha una quota di mercato del 65%, N.d.R.).

Inoltre, nessuno di quei contratti prevede (o incoraggia) i provider a trattare il traffico di Google con priorità più elevata del traffico generato da altri. Piuttosto, se i provider modulassero il loro controllo unilaterale sulle connessioni di Rete e offrissero la collocazione congiunta dei server delle varie internet company nel loro network in modo anti-competitivo, questo sì sarebbe un problema per Internet e per l’innovazione che consente.” Come dire, andate a parlare di Neutralità della Rete con le società che offrono l’accesso, non con noi fornitori di contenuti e di servizi.

Un altro esempio di quanto la purezza iperurania del network neutrale sia lontana dalla realtà è dato dall’impiego della cosiddetta tecnica di “Deep Racket Inspection” (o DPI) da parte degli Internet Service Provider (ISP): a differenza di quanto accade con “Stateful Packet Inspection”, che analizza solo l’header (il titolo) dei pacchetti internet, DPI effettua un’analisi dettagliata di ciò che si trova all’interno del pacchetto stesso: questo consente di perseguire finalità legittime (ad esempio dare priorità ai pacchetti che portano la voce in applicazioni Voice Over IP, protezione da worm, attacchi e virus) come pure altre assai meno commendevoli: ad esempio, rallentare il traffico proveniente da o diretto verso operatori concorrenti, oppure mettere a disposizione di altri soggetti la “storia” della navigazione dei propri clienti, al fine di consentire a chi acquista i dati di fornire offerte commerciali “tagliate” su misura del potenziale cliente. Con tanti saluti delle regole di mercato e di quelle della privacy.

In conclusione, il dibattito sulla neutralità della Rete, tutto basato su tensioni ideali, nasconde una più prosaica battaglia tra fornitori di contenuti e fornitori di banda per accaparrarsi il denaro degli utenti finali del servizio. Come sottolinea cinicamente Business Week, è davvero difficile per l’Amministrazione Obama tradurre il suo generico afflato per la neutralità della Rete in una vera a propria direzione politica. Tanto più che, fino a quando non sarà trovata una definizione di neutralità che metta d’accordo tutti gli attori (utenti, ISP e fornitori di contenuti), sarà molto difficile che la politica legiferi in materia in modo coerente.


Altrenotizie.org - testata giornalistica registrata presso il Tribunale civile di Roma. Autorizzazione n.476 del 13/12/2006.
Direttore responsabile: Fabrizio Casari - f.casari@altrenotizie.org
Web Master Alessandro Iacuelli
Progetto e realizzazione testata Sergio Carravetta - chef@lagrille.net
Tutti gli articoli sono sotto licenza Creative Commons, pertanto posso essere riportati a condizione di citare l'autore e la fonte.
Privacy Policy | Cookie Policy