- Dettagli
- Scritto da Administrator
di Luca Mazzucato
Eppur si muove: nonostante le infinite iatture fin qui incontrate, lunedì notte il Large Hadron Collider del CERN di Ginevra ha effettuato la prima collisione tra protoni all'energia di 500 miliardi di elettronvolt. Fino a Natale in fase di collaudo, dal 2010 l'acceleratore più potente mai costruito comincerà a svelare i misteri della struttura dello spazio e del tempo. Ma come in un romanzo di Philip Dick, alcuni credono che un segnale dal futuro ne saboterà il funzionamento...
In due parole, lo scopo di LHC consiste nel far girare in tondo ad una velocità prossima a quella della luce due fasci di protoni lungo un cerchio di ventisette chilometri. In due punti lungo il cerchio, i due fasci opposti di protoni vengono fatti scontrare, sprigionando un'energia mai raggiunta prima e facendosi beffe del celebre detto degli Acchiappafantasmi: “Mai incrociare i flussi!”
Rovistando tra le macerie di questo scontro titanico, grazie a degli enormi rivelatori i fisici teorici sperano di trovare le tracce del famoso bosone di Higgs, l'ultima particella mancante per confermare il nostro racconto del mondo microscopico. Proprio come un fantasma, infatti, il bosone di Higgs è riuscito ad eludere tutti i tentativi di osservazione compiuti finora all'acceleratore Tevatron di Chicago. LHC supererà in potenza il collega del Fermilab di quasi un fattore dieci e lo manderà in pensione dopo oltre vent'anni di attività.
Pronto per l'uso nell'estate 2008, LHC subì un primo catastrofico intoppo nel settembre dello scorso anno, quando una perdita di sei tonnellate di elio liquido dal sistema di raffreddamento dei magneti superconduttori danneggiò seriamente l'acceleratore, costringendo i tecnici a una sosta forzata di un anno intero.
L'origine di questo problema permette di capire una caratteristica straordinaria di LHC. Per far girare in tondo i protoni, che hanno carica elettrica positiva, é necessario forzarli con un campo magnetico. Più veloci i protoni, più potente il campo magnetico. Per produrre un campo magnetico si può usare della corrente elettrica, come succede per le elettrocalamite degli sfasciacarrozze. Quando la corrente elettrica scorre nei soliti cavetti di rame, li surriscalda, disperdendo calore a causa della loro resistenza. Il campo magnetico che bisogna produrre per costringere i protoni dentro al cerchio di LHC è enorme: tanto che la corrente necessaria per generarlo fonderebbe qualsiasi materiale esistente in natura.
Con un'eccezione: si tratta di un tipo di materiali dalle caratteristiche inverosimili, chiamati superconduttori. I superconduttori trasportano corrente, ma a differenza del doppietto di rame non possiedono alcuna resistenza e dunque non si surriscaldano e possono far andare l'acceleratore. L'unico problema è che questi materiali restano nello stato superconduttore solo a temperature molto basse ed è dunque necessario raffreddare i magneti con l'elio liquido a temperature (LHC è il luogo più freddo di tutto l'universo).
Un corto circuito ha bucato i contenitori di elio liquido causandone la fuoriuscita e bloccando la macchina per un anno. D'altra parte, il balzo tecnologico nello studio dei superconduttori, che ha permesso la realizzazione di LHC, avrà certamente grosse applicazioni nell'efficienza energetica: forse non è distante il momento in cui potremo trasportare elettricità senza alcuna perdita.
Il più recente intoppo subito dall'acceleratore di particelle è stato causato all'inizio di novembre da una baguette. Ricordate la celebre scena di Guerre Stellari in cui Luke Skywalker, guidato dalla Forza, riesce a centrare con un missile il condotto di raffreddamento della Morte Nera? Ebbene, un uccello ribelle in volo sopra le campagne francesi è riuscito a replicare l'impresa, centrando con un pezzo di baguette un punto sensibile di un macchinario esterno, causando un improvviso riscaldamento di LHC che ha portato al blocco di tutta la struttura. La notizia è confermata dal Dr. Mike Lamont, uno dei responsabili dell'esperimento.
Che LHC sia la macchina più potente e complessa mai concepita dall'ingegno umano è senz'altro vero. E' dunque inevitabile che nella fase di costruzione e di collaudo si applichi senza eccezioni la legge di Murphy: tutto quello che può rompersi si romperà. Ma un celebre fisico teorico danese, Holger Nielsen, del Niels Bohr Institute di Copenhagen, si è spinto oltre, formulando una teoria che invoca una sorta di censura cosmica, all'origine del “sabotaggio” della preziosa macchina.
La teoria è tanto balzana quanto suggestiva (anche se è di qualsiasi riscontro). Secondo Nielsen, qualche fenomeno fisico a noi (ancora) sconosciuto ci impedisce di creare il bosone di Higgs, una vera e propria forma di censura cosmica. Siccome LHC è stato progettato proprio con lo scopo di produrre e studiare questa particella nel futuro, questo fenomeno fisico sconosciuto sarebbe responsabile di quello che nel passato, cioè ora, sembra una serie incredibile di coincidenze e sfortune, ma il cui risultato finale è evitare che il bosone di Higgs veda la luce.
Gli aneddoti a favore di questa tesi sono numerosi. Prima dell'avvento di LHC, gli Stati Uniti avevano iniziato la costruzione del colossale Superconducting Super Collider, disegnato per produrre il bosone di Higgs e ben quattro volte più potente di LHC. Dopo aver speso due miliardi di dollari e scavato un enorme tunnel vicino a Dallas, in Texas, il Congresso americano chiuse l'esperimento, dirottando i fondi verso il progetto della Stazione Spaziale Internazionale: il bosone di Higgs dovrà aspettare. Nonostante anni di caccia forsennata, l'acceleratore Tevatron del Fermilab non è mai riuscito a produrre un solo bosone di Higgs, anche se l'ha cercato quasi ovunque (tranne nell'ultimo angolino buio dove punterà la luce LHC). Poi è accaduto l'episodio dell'elio liquido l'anno scorso, ora anche il mondo animale prova a mettere le baguette tra le ruote.
Ma per fortuna i cocciuti scienziati del CERN non si sono fatti intimidire e lunedì notte hanno infine puntato i due fasci di protoni uno contro l'altro, portando a termine con successo la prima collisione. Tutto è andato come previsto: la fase più critica dell'esperimento è dunque passata. L'energia sprigionata è per il momento molto inferiore a quella che servirà, a regime, per produrre l'Higgs. Finito il breve periodo di collaudo degli strumenti, entro i primi mesi del 2010 LHC aumenterà progressivamente l'energia, cominciando i primi esperimenti veri e propri.
I continui ritardi subiti dal progetto (oltre tre anni), oltre ad avere un costo elevato, hanno avuto una ricaduta pesante sulla principale forza motrice del CERN: gli studenti di dottorato. Centinaia di dottorandi che hanno costruito la macchina e attendono i primi dati si trovano in una situazione molto difficile. La maggior parte delle istituzioni europee richiede una durata massima di tre o quattro per scrivere una tesi di dottorato: chi aveva puntato sulla partenza dell'acceleratore nel 2006, posticipata di volta in volta fino al 2010, si è ritrovato con un pugno di mosche in mano e problemi a concludere il dottorato. Sono in molti dunque a sperare che questa sia la volta buona e, finito l'attuale collaudo, arrivino i primi risultati. A meno che non abbia ragione Nielsen e qualcuno lassù proprio non sopporti la vista del bosone di Higgs.
- Dettagli
- Scritto da Administrator
di mazzetta
Le ultime settimane hanno registrato una serie di novità che riguardano l'assetto e il futuro della rete. L'ICANN (l'organismo che regola i nomi dei siti) ha disposto l'introduzione delle denominazioni dei siti con alfabeti diversi da quello latino, l'arabo, il cirillico, il cinese, il giapponese, il coreano, l'ebraico o l'hindi avranno quindi cittadinanza in rete fin dalla composizione dell'indirizzo (o dominio), mettendo fine al monopolio dell'alfabeto latino, una rivoluzione culturale passata per lo più inosservata, la fine del dominio latino sul dominio Internet.
Sembra finalmente destinato a decollare anche l'IPV6, il protocollo internet a 128 bit destinato a sostituire l'IPV4 che di bit ne ha solo 32. Il protocollo IPV6 permette di avere a disposizione una quantità sterminata di nuovi indirizzi (quelli di IPV4 sono prossimi all'esaurimento) e consente un uso ancora più versatile della rete. La penetrazione del protocollo IPV6 è ancora limitata all'uno per cento della rete, ma l'esaurimento della capacità dell'IPV4 costringe ormai a fare di necessità virtù e a muovere verso la nuova frontiera.
Frontiera che registra una vittoria sul fronte della neutralità della rete, la pretesa di alcuni operatori professionali di costituire corsie preferenziali per certi tipi di traffico (in genere quello commerciale in senso stretto) e punitivo per altri (in genere il file-sharing) ha subito una brusca sconfitta su tutta la linea, la neutralità della rete è stata quindi riaffermata, nessuna gerarchia nel traffico e nessuna corsia preferenziale, ma neanche colli di bottiglia a strozzare il traffico diretto verso siti sgraditi alle corporation.
In proposito giunge l'ultima evoluzione di Pirate Bay, la Baia dei Pirati che è l'incubo del fronte anti-pirateria in quanto epicentro dell'ultima generazione appassionati della condivisione peer-to-peer gratuita di contenuti digitali. Dopo la vendita del sito, i tecnici pirati hanno annunciato il pensionamento del vecchio sistema centralizzato di gestione dei link ai torrent in favore di uno diffuso, nel quale Pirate Bay assumerà la forma di un motore di ricerca per i torrent in condivisione, con il doppio risultato di rendere più stabile il servizio (si spera) e di sottrarsi alle pressioni legali delle corporation che hanno dichiarato guerra al file-sharing.
Guerra che procede male per gli alfieri del copyright, alcuni paesi europei come Francia e Gran Bretagna stanno cercando di promulgare leggi punitive nei confronti di chi scarica illegalmente contenuti dalla rete, ma con scarso successo. Nessun paese occidentale è ancora riuscito ad immaginare una regolamentazione che riesca a limitare il fenomeno senza comprimere pesantemente i diritti individuali, tra i quali molti paesi stanno riconoscendo proprio l'accesso alla rete.
Il confronto tra la rete e gli altri media continua ad essere aspro, nonostante il passare degli anni abbia portato ad un'integrazione sempre più spinta tra i diversi media. Se la radio regge il confronto e sembra anzi trarre ossigeno dalle possibilità offerte da streaming e podcasting, televisione e carta stampata arrncano, perdendo utenza e introiti in favore della rete. Soldi pesanti, quelli della pubblicità, ma anche un preoccupante calo della rilevanza e dell'impatto sulla formazione delle opinioni pubbliche, questi i motivi che spingono molti editori a scendere in guerra contro la rete. Poco importa che le loro edizioni si riempiano con poca fatica attingendo alla rete, per lo più senza riconoscerlo in alcun modo, gli editori vogliono difendere il loro prodotto, ma non hanno alcuna remora ad appropriarsi del contenuto pubblicato in rete. Recentemente ha fatto rumore il brutale plagio operato da una famosa conduttrice di programmi culinari in televisione, che ha pubblicato un fortunato libro di ricette copiando a man bassa da quelle rinomate di una blogger, notizia che però non ha raggiunto i telespettatori e i lettori che non hanno accesso alla rete.
Una delle battaglie più significative di questa guerra è quella che vede Google confrontarsi con gli editori che accusano l'azienda di Mountain View di sfruttare illegalmente i contenuti prodotti dai giornali. Un'accusa diffusa un po' ovunque nel mondo e se Rupert Murdoch è quello che fa più rumore, anche nel nostro paese si sono registrati attacchi a Google da parte degli editori. Il modello di business di Google è agli antipodi di quelli dell'infotainment televisivo e dell'editoria ed è abbastanza normale che i due mondi fatichino a capirsi,il delta culturale è vasto e non sembra che le intelligenze capaci di colmarlo attirino l'attenzione degli editori.
Murdoch è riuscito a rendersi ridicolo, minacciando Google di togliere l'accesso di Google News alle sue testate e accendendo una polemica al termine della quale si è capito solo che Google lo innervosisce perché riesce a guadagnare con la rete mentre le sue aziende ci perdono. L'ultima uscita di Murdoch in realtà è stata stimolata proprio da una disavventura con Google, nei giorni precedenti l'attacco Murdoch aveva saputo che avrebbe incassato cento milioni di dollari in meno del previsto da Google, perché in un accordo relativo a MySpace il sito di Murdoch non ha raggiunto gli obbiettivi fissati contrattualmente da Google per l'erogazione dei cento milioni.
Le disavventure di MySpace, penalizzato dall'affermarsi di Facebook, si aggiungono a quelle del Wall Street Journal, recente acquisizione del magnate australiano, che ha pensato bene di mettere a pagamento l'edizione online del giornale, decisione che ha comportato un crollo delle visite al sito, che così ha accompagnato il crollo delle vendite delle copie di carta a seguire il calo di credibilità della testata, in questo caso è il nome di Murdoch ad essere un problema perché non è certo un sinonimo di attendibilità, un requisito fondamentale per chi legge un quotidiano economico. A prescindere dalla qualità del WSJ, il tentativo di Murdoch rappresenta un po' il tentativo di “rimettere il genio nella bottiglia” dopo che ne scappato, come h notato Biza Stone, uno dei fondatori di Twitter.
Male anche per il Washington Times e l'agenzia UPI, travolti dalla lotta per la successione tra i figli del reverendo Moon, che è ancora vivo, ma che ha perso un po' di smalto. Nel ventunesimo secolo essere a capo della Lega Anticomunista Mondiale e allo stesso tempo della Chiesa Dell'unificazione e proclamarsi Dio cristiano in terra, non rende più come un tempo, se l'editoria classica soffre, la macchina di Moon è al disastro, superata a destra da una miriade di siti molto più estremi e in fondo divertenti. Al Washington Times il confronto ha visto in redazione anche la presenza di guardie armate e per un attimo la poderosa macchina da propaganda del reverendo coreano è sembrata fermarsi. Merita ricordare che il Washington Times e l'UPI sono state “le fonti” delle peggiori mistificazioni dei neo-conservatori americani, ripetute identiche dalla maggior parte dei media nostrani, senza mai sottolineare la peculiarità della fonte.
Se il reverendo coreano è il diavolo quando tenta Milingo, quando ha inventato balle per spingere l'Occidente alla guerra è stato trattato e presentato ai lettori dei media italiani come se fosse il Washington Post. Anche i media italiani sono schierati con Murdoch nella battaglia contro Google e così capita che nella mischia finiscano per fare brutta figura in parecchi al seguito dell'australiano. Una menzione la merita Massimo Mucchetti, che dalle pagine del Corriere della Sera scrive in propostio un lungo articolo, fondato però su almeno un paio di bugie grosse e sull'evidente necessità di piegare il discorso all'esito desiderato. Non è che Google non offra motivi d'apprensione nella sua tumultuosa espansione, ma la concorrenza che inventa storie per darsi ragione non fa un bell'effetto.
Fa imbestialire i professionisti impegnati in modelli di business tradizionali, perché Google fa soldi dove gli altri non riescono a fare soldi e allo stesso tempo colonizza nuovi spazi (anche quelli futuribili) con investimenti massicci che ai concorrenti sembrano a fondo perduto. Google in realtà non si comporta in maniera originale, ma semplicemente congrua al momento storico e allo stato dell'ambiente nel quale è chiamata ad operare, tumultuoso e in espansione geometrica. Percorre una strada aperta prima da IBM e poi ribadita da Microsoft, cercando di difendere e consolidare la posizione centrale che ha conquistato nel mercato dell'IT, ma soprattutto proiettandosi in un futuro nel quale la rete sarà enormemente più diffusa, potente e capiente.
Microsoft stessa tenta da sempre di colonizzare lo spazio elettronico e di dividerne i mercati verticalmente ed è di questi giorni una sua decisa reazione contro la pirateria, consistente nel divieto di accedere alla piattaforma di gioco online per Xbox agli utenti che hanno modificato le console di gioco per poter utilizzare giochi piratati, già più di un milione di possessori di Xbox sono stati bannati dalla piattaforma di gioco.Da qui l'ostilità da parte degli attori che perseguono modelli tradizionali di business, rinfocolata da dati che vedono aumentare l'utenza (e il business) in rete e calare l'audience dei media tradizionali. Un'ostilità che in alcuni paesi può tramutarsi in un tacito ostruzionismo alla diffusione della rete, non solo da parte della politica sempre spaventata dall'esistenza di spazi di comunicazione incontrollati, ma anche da parte delle istituzioni finanziarie e di potenti interessi costituiti. Il nostro paese è uno di quelli nei quali la diffusione di Internet trova una forte opposizione da parte di questa variegata composizione d'interessi, figlia di carenze culturali pesanti, ma anche sostenuta da considerazioni e interessi più prosaici.
- Dettagli
- Scritto da Administrator
di Alberto Mazzoni
Una delle scoperte neuroscientifiche recenti che più ha colpito l'immaginario culturale è quella dei neuroni-specchio, cioè neuroni che si attivano sia quando una scimmia compie un movimento sia quando vede altre scimmie compierlo. Le conseguenze di questa evidenza sperimentale sono ancora da appurare, ma l'idea di aver trovato un tassello neurofisiologico dell'identificazione tra sè e l'altro è suggestiva. I neuroni specchio sono stati rilevati con registrazioni di potenziale elettrico da elettrodi collocati nel cervello, un tipo di esperimento che solo raramente (durante operazioni chirurgiche) viene praticato sull'uomo, e questo fa sì che ancora non ci sia prova diretta della presenza di neuroni specchio umani, anche se è ragionevole supporre che ve ne siano.
La maggior parte delle registrazioni dell'attività cerebrale umana deriva dall'elettroencefalogramma, cioè dal potenziale elettrico misurato attraverso il cranio, o dalla risonanza magnetica, che misura il livello di consumo di ossigeno del cervello e quindi il suo livello di attivazione. In entrambi i casi si tratta di misurazioni che riguardano aree del cervello, e non singoli neuroni. Tramite la risonanza magnetica si è scoperta un'area con proprietà empatiche, chiamata corteccia cingolare anteriore, che si attiva sia in corrispondenza del proprio dolore che in corrispondenza della vista del dolore altrui, come dimostrato da numerosi esperimenti. Nessuno aveva però mai avuto l'ardire di porsi la domanda alla base della ricerca che un gruppo di neuroscienziati cinesi ha pubblicato recentemente su Journal of Neuroscience: l'empatia dipende dall'etnia? Sono più sensibile se vedo soffrire una persone del mio stesso gruppo etnico?
Il test è stato svolto su 17 cinesi e 16 caucasici, di cui viene misurata l'empatia nei confronti di modelli cinesi e caucasici che, in un video, vengono toccati nella guancia con la punta di un cotton-fioc o con la punta di un ago. In nessun caso i modelli cambiano espressione, in maniera tale che l'esperimento sia indipendente dai codici facciali culturali, assai diversi tra Asia e Europa. Un primo test dimostra sulla base di un set di domande che i due gruppi di soggetti sono diversi come criteri morali (come da stereotipo, i cinesi sono più collettivisti e i caucasici più individualisti etc).
Il secondo test si basa sulle risposte dei partecipanti al test alle domande I) pensi che la persona stia provando dolore? II) questo ti fa star male? Il risultato è che, indipendentemente dall'etnia del soggetto che guarda e del soggetto ripreso, se si reputa che la persona stia provando dolore nel 90% dei casi si ritiene la vista del dolore sgradevole per sè stessi. O almeno si dice di ritenerla sgradevole. Il terzo test consiste nel misurare l'attività della corteccia cingolare anteriore tramite la risonanza magnetica. Il risultato è che per entrambe le etnie la corteccia cingolare anteriore aumenta la propria attività esclusivamente se il modello sofferente è della propria stessa etnia. Esclusivamente. Il fenomeno è simmetrico: la corteccia cingolare anteriore dei caucasici ignora la sofferenza dei cinesi e viceversa, quindi questo non dipende dalle differenze culturali evidenziate dal primo test.
Nessuno è così riduzionista da credere che la risonanza magnetica di una singola area sia una misura completa dell'empatia, ma resta il fatto che esiste almeno una zona del cervello che si attiva per il nostro dolore personale, per quello dei nostri simili, ma non per il dolore di chi è etnicamente diverso da noi. Del resto, come fanno notare gli autori, la maggiore empatia verso quelli che ci sono etnicamente affini ha probabilmente un vantaggio evoluzionistico in una società animale. Questo non elimina la presenza di una naturale empatia umano-umano, ma la rende differenziata, graduata in base alla somiglianza, all'appartenenza al medesimo ceppo etnico.
Le risposte al secondo test erano quindi false? Non necessariamente. Ci sono numerosi istinti che negli esseri umani vengono superati dal ragionamento simbolico e dall'apprendimento sociale che conducono a comportamenti opposti a quelli istintivi. Un lavoro culturale è quindi necessario per compensare le influenze innate alla segregazione, e per farlo può essere utile conoscere il dato biologico di partenza.
- Dettagli
- Scritto da Administrator
di Luca Mazzucato
NEW YORK. Preparatevi, governi e imprenditori, perché sta per partire la nuova corsa all'oro. Solo che non si tratta di oro ma di acqua e la corsa si terrà non in California bensì sulla luna! La recente missione LCROSS della NASA sfata il mito della luna satellite arido e desolato e scopre ingenti quantità di acqua intrappolate ai poli, appena sotto la superficie rocciosa, aprendo la strada alla colonizzazione del nostro satellite e all'era dei viaggi interplanetari.
La missione partita il giugno scorso da Cape Kennedy, Florida, è allunata nel cratere Cabeus, vicino al polo sud della luna. Il satellite LCROSS, dopo mesi di avvicinamento in orbita attorno alla terra, ha iniziato la sua discesa in picchiata verso il cratere lunare, ma prima di colpire la superficie ha sparato un proiettile dritto nel centro del cratere. L'esplosione nel centro del cratere ha provocato l'espulsione di una grande quantità di terreno lunare, che il satellite ha potuto analizzare a fondo per più di quattro minuti, prima di seguire la tragica sorte del proiettile e infrangersi sulla superficie lunare.
Quei quattro minuti di raccolta dati potrebbero essere essere ricordati nel futuro come il vero inizio dell'avventura interplanetaria. Perché i risultati delle analisi sono inequivocabili: appena sotto la superficie, il polo sud della luna è pieno di acqua ghiacciata. Secondo gli scienziati della NASA, la quantità di acqua rilevata è abbondante e si potrebbe trattare addirittura di miliardi di tonnellate.
Il nostro satellite, che compie un giro intorno alla terra ogni ventotto giorni, ci mostra però sempre la stessa faccia. L'idea popolare che l'altra faccia della luna, “the dark side of the moon,” sia sempre oscurata è però falsa. Entrambe le facce della luna subiscono il bombardamento della luce solare tutti i giorni. Non avendo l'atmosfera a proteggerla da sole, la luna subisce una terrificante escursione termica, passando dai -150° notturni ai +100° diurni. L'acqua dunque non può trovarsi in superficie, poiché evaporerebbe instantaneamente al contatto con la luce solare.
Le zone più fresche della luna sono i poli, alcuni dei cui crateri sono perennemente in ombra. Per questo è stato deciso di lanciare un proiettile all'interno del cratere di Cibeus, vicino al polo sud, perché è la zona più favorevole per andare a caccia di acqua sotterranea. I ricercatori della NASA si sono dichiarati “estatici” alla vista delle linee spettroscopiche che confermano la presenza massiccia di acqua. Si sospettava da tempo che ci potesse essere acqua al polo sud della luna, a causa delle grosse quantità di gas d'idrogeno che si vi ammassa, ma finora si trattava solo di speculazioni. L'idrogeno, insieme all'ossigeno, è infatti il prodotto della reazione chimica dell'elettrolisi: fornendo abbastanza energia, la molecola di H2O si separa nei suoi due costituenti, ossigeno e idrogeno, e quest'ultimo è stato osservato attorno ai poli lunari.
La scoperta dell'acqua, di grande portata scientifica, porta con sé impressionanti risvolti economici. Per prima cosa, l'acqua è il nutrimento essenziale dell'uomo, dunque qualsiasi progetto di colonizzazione del satellite deve risolvere per prima cosa l'approvvigionamento di acqua: problema ora risolto, a quarant'anni dal primo atterraggio sulla luna. La questione è fondamentale, se pensiamo che il costo del trasporto di un chilo di materiale dalla terra alla luna viaggia intorno al milione di dollari.
Il luogo particolare in cui è stata scoperta l'acqua è un altro fattore di enorme importanza. Il cratere Cibeus, il cui fondo è in ombra, è circondato dai cosiddetti “picchi di luce eterna”, cioè delle montagne lunari le cui vette sono perennemente alla luce. L'amministratore delegato della X Prize Foundation, Peter Diamandis, ha suggerito che la presenza di queste vette illuminate permetterà, sfruttando macchine alimentate ad energia solare, l'estrazione intensiva dell'acqua a ciclo continuo.
Ma c'è dell'altro. Diamandis, la cui fondazione X Prize ha indetto una competizione mondiale per la realizzazione del miglior veicolo motorizzato in grado di scorrazzare sulla luna (il premio è stato consegnato la settimana scorsa), ha lanciato un monito agli agenti immobiliari: “La proprietà più appetibile di tutto il sistema solare è il polo sud della luna!” Non si tratta di una provocazione, ma dell'inizio della corsa all'esplorazione spaziale.
Il carburante preferito dagli astronauti è infatti proprio l'acqua. I propulsori dei razzi che spingono in orbita i nostri satelliti, infatti, utilizzano idrogeno e ossigeno che, messi in contatto, si trasformano in acqua, sprigionando l'enorme quantità di energia necessaria per sfuggire alla forza di gravità terrestre. L'idrogeno e l'ossigeno vengono ottenuti grazie all'idrolisi dell'acqua: proprio come accade al polo sud della luna, utilizzando grosse quantità di energia possiamo separare idrogeno e ossigeno a partire dall'acqua, poi immagazzinarli in serbatoi separati e infine usarli per fare andare i razzi.
Considerando che navicelle spaziali per missioni interplanetarie non possono partire dalla superficie terrestre, ma devono essere costruite e varate al di fuori della nostra atmosfera, l'ostacolo insormontabile all'esplorazione spaziale era finora rappresentato proprio dal costo spropositato del carburante spaziale, ovvero idrogeno e ossigeno. La possibilità di usare la luce solare sui “picchi di luce eterna” sia per estrarre l'acqua che per ricavarne direttamente il carburante per i voli interstellari danno una nuova prospettiva all'incredibile scoperta della NASA.
A chi appartiene l'acqua sulla luna? Forse non tutti sanno dell'esistenza del Trattato dello Spazio Esterno, un accordo ratificato nel 1967 che proibisce l'utilizzo della luna per scopi militari e stabilisce che il territorio lunare è “proprietà comune”, allo stesso modo in cui gli oceani appartengono a tutti. Fino ad ora, l'esplorazione della luna non ha avuto grossi incentivi di carattere commerciale, proprio per via della mancanza di acqua. Ma dopo questa scoperta della NASA le cose cambieranno rapidamente e non è impensabile che già fra dieci anni aziende private oppure i governi di USA, Russia e Cina si contenderanno l'estrazione dell'acqua lunare, ponendo il problema della proprietà dei territori extraterrestri.
- Dettagli
- Scritto da Administrator
di Cinzia Frassi
Se i consumatori sono felici di pagare per leggere i giornali di carta non vedo perché non debbano essere altrettanto felici per leggere le stesse notizie online". Ne è convinto Rupert Murdoch, che insiste e continua la sua battaglia contro l'informazione gratuita on line, lanciando l'ultima provocazione contro i motori di ricerca. In una recente intervista a Sky News Australia - parte del suo impero - Murdoch etichetta senza mezzi termini come "parassita e ladro di notizie" l’aggregatore più importante, padrone in sostanza della rete in fatto di indicizzazione di news: Google.
La provocazione di Murdoch sarebbe quella di rendere invisibili al grande occhio i siti web dei suoi giornali, come The Sun, The Times e il Wall Street Journal. Una tale manovra porterebbe in concreto ad una visibilità assai ridotta, limitando gli accessi ai siti targati News Corp alle visite dirette. Ma la navigazione on line, si sa, oggi non funziona così. Essa è fatta di ricerche, aggregatori, links, cioé di un grande passaparola dove i motori di ricerca sono gli strumenti principali degli internauti. Insomma, non è sufficiente mettere on line un sito, un contenuto, una notizia; quello che conta è che esso sia raggiungibile quindi visibile e per esserlo, se parliamo di notizie, Google News è indispensabile.
Il tycoon australiano tuttavia deve inventarsi qualcosa per salvare il salvabile in una fase davvero difficile sia per le testate in edicola che per alcuni investimenti poco azzeccati. Primo fra tutti il buco nell’acqua dei social network con MySpace, affondato dal fenomeno Facebook, che a fine 2008 vantava già 34 milioni di utenti e con un ritmo di crescita impressionante. Il problema principale che Murdoch intende affrontare è il calo delle vendite riscontrato nel settore della carta stampata e la conseguente perdita di raccolta pubblicitaria. A fronte di questa diminuzione di profitti, sul web si registrano invece sempre più visitatori che fruiscono d’informazione on line gratuita. Magari superficiale, generalista, ma liberamente fruibile e gratuita.
Fino ad ora. L'idea di Murdoch è quella di imboccare la strada delle news a pagamento e spostare sul web il guadagno pubblicitario. La provocazione però non è da prendere sul serio. Il fatto è che chiunque operi sul web e per il web sa bene quanto sia importante arrivare alla SERP di Google. Basti pensare agli strumenti - più o meno efficaci ci sarebbe da dire - che mirano a fare in modo che un sito, una pagina o una notizia arrivino proprio davanti agli occhi degli internauti per indurli al click tanto auspicato. Google è in grado di produrre centomila click e fare la differenza tra un sito morto e uno che sopravvive nella vastità della rete.
Per parte sua da Mountain View arriva una risposta facile-facile: “Sono sempre gli editori i proprietari dei contenuti e a loro spetta la gestione delle informazioni. Se un editore non vuole che i contenuti dei suoi siti d’informazione vengano indicizzati da Google News può farlo senza problemi” afferma Simona Panseri, responsabile della comunicazione per Google Italy. Non solo: precisa anche che “Google News è un importante gestore del traffico web che rimanda ai siti circa centomila click al giorno. Ogni click è un potenziale business che l’editore può decidere di utilizzare come crede: con gli abbonamenti, la pubblicità o i micropagamenti. Noi non facciamo altro che individuare contenuti per gli utenti e gestire traffico, nel rispetto delle leggi sul copyright”.
In realtà la trovata di Murdoch sembrerebbe forse puntare a portare il primo motore del mondo al tavolo della trattativa sulla base di una constatazione: se l'aggregatore guadagna sulle notizie, che almeno chi offre la fonte sia ricompensato adeguatamente. Magari con una percentuale di guadagni provenienti dalla pubblicità, derivanti proprio dalla indicizzazione delle notizie stesse. Il magnate dell’editoria però sembra deciso a continuare la sua scommessa e a quanto dichiara, sui siti di proprietà della News Corp, le notizie dalla prossima estate non saranno più free, bensì a pagamento. Il Wall Street Journal ha già saltato il fosso e il progetto è che anche The Australian, il New York Post e The Times lo seguano presto. Se da un lato Murdoch temporeggia dall’altro insiste sul costo che l’editore si assume per fare informazione: “A noi costa molto fare dei buoni giornali e avere dei buoni contenuti”.
Rendersi invisibili agli spider di Google appare un'iniziativa assurda, un salto bel buio, una follia, ma il progetto del tycoon dell'editoria ha in serbo probabilmente altri colpi di scena. Intanto è sicuramente una mossa da leggere come un escamotage per prendere tempo rispetto alla data fatidica del giugno 2010, per la quale sembra non essere pronto. Altri, infatti, hanno già fatto il salto passando al pay per read e altri dichiarano che presto saranno pronti per farlo. E’ il caso di Bloomberg, oggi gratuito ma che dovrebbe costare 600 dollari l’anno per andare oltre la home page. Tra gli europei, ad erigere il pay wall ci sono l’editore della Bild Zeitung, Springer, e il Süddeutsche Zeitung. Un altro elemento da considerare è che tendenzialmente risulta meno rischioso passare dal free al pay per read per quelle testate specializzate che si rivolgono ad un pubblico fatto di manager, professionisti, tecnici.
Il settore dell’informazione, sia su carta che on line, è di fatto nel bel mezzo di una fase di grande trasformazione, anche senza arrivare a posizioni estreme come quella di Murdoch o quelle di chi, al contrario, sostiene che non ci sia futuro se non per un’informazione gratuita. Va da se che questa trasformazione interesserà anche il mondo del giornalismo, sia in termini di qualità che di occupazione. Per quello che si vede ora sembra esserci una grande massa di utenti generalisti, strafatti di social network, che tra blog, Facebook, Twitter e quant’altro, non disdegnano di dare un’occhiata ad una home page di informazioni multimediali gratuite. A fronte c’è una forte domanda d’informazione di settore, l’approfondimento, l’analisi specializzata che deve saper sfruttare gli strumenti di comunicazione più innovativi.
Nella lettera agli azionisti pubblicata nei giorni scorsi, Murdoch ribadiva che "il giornalismo di qualità non è economico" e che "la pubblicità non riuscirà più da sola a pagare i conti dei giornali". Grandi verità da tenere ben presenti, perché l'informazione e la libertà della stessa, sia attiva che passiva, sono elementi fondamentali per una società senza padroni. Grandi verità che tuttavia vengono dalla voce di uno dei grandi monopolisti che divorano tv e informazione a tutto tondo.