mercoledì 23 maggio 2012

L’analisi economica del ponte sullo stretto

Riassunto di alcuni tratti fondamentali dell’ “L’analisi economica” del ponte sullo stretto,  di Domenico Marino
Il valore aggiunto e il PIL della Calabria

Il settore legato ai servizi, dice il professore Domenico Marino, ha determinato un maggior tasso di crescita nella Calabria. Il valore aggiunto dell’industria, invece, segue un trend decrescente, che non cresce, o cresce poco, dal 1980. Il tasso di crescita pro capite, se si mette da parte quello registrato nel 1995, inoltre, mostra una crescita contenuta; e ciò, è indicatore di un benessere sociale che non tende a migliorare.

I rapporti con l’estero della Calabria

I dati riferiti alle importazioni e alle esportazioni della regione, mostrano una debolezza nella struttura produttiva della stessa. Lo sviluppo del sistema, infatti, è da attribuirsi al suo grado di apertura rispetto al resto del mondo. Un primo quadro della situazione approssimativo ha messo in evidenza la capacità della regione di soddisfare autonomamente i propri bisogni: il settore agricolo, ad esempio, è incapace di soddisfare la domanda interna; e ciò è ancora più preoccupante, non solo mettendo a confronto il rapporto esportazione/importazione Calabrese (0.27) con quello nazionale (0.37), ma mettendolo a confronto con quello del Mezzogiorno (0.51).

Al contrario, un notevole vantaggio dell’area, rispetto al quadro nazionale, riguarda la produzione dei prodotti chimici, che viene spiegato dalla presenza di un certo numero di imprese che producono olio di agrumi.

“Tutte le infrastrutture che servono, solo quelle che servono”

Il fatto che infrastrutture del genere siano state fatte in altre parti del mondo, non giustifica la loro esportazione in altre zone. Non necessariamente, infatti, l’esportazione di una grande infrastruttura reca vantaggi in diverse zone del globo.

Due considerazioni di fondo, infine, devono avere il diritto di essere espresse:

-Come una Cattedrale nel deserto, una infrastruttura inutilizzata non produce vantaggi in termini di sviluppo.

-Le infrastrutture debbono essere funzionali al territorio nel quale vengono inserite.

Allora il ponte è utile o no?

Un’analisi dell’utilità economica del ponte

Per fare questo tipo di analisi è necessario conoscere la situazione economica dell’area; che, come dimostrato nelle precedenti analisi, nel caso specifico calabrese risulta debole.

L’idea del ponte, quindi, nasce per diminuire i tempi di trasporto sull’area. Questa riduzione, però, sarebbe  maggiore se si facessero interventi meno costosi sui tratti autostradali del Mezzogiorno. L’opera, dunque, non sarà mai in grado di recuperare il capitale investito, a causa delle ridotte dimensioni degli scambi economici attivabili. Questi flussi di merci, inoltre, attualmente possiedono altre vie di trasporto più veloci, economiche ed ecologiche.

Il ponte porterà un beneficio indiretto legato al turismo

Senza dubbio, l’opera, porterà un beneficio turistico legato all’attrazione dell’opera. Anche questa tesi, però, deve, in fondo ai conti, motivare la sua ragion d’essere. Lo stretto di Messina, infatti, è di per se un’attrattiva turistica. Il ponte, inoltre, andrebbe a deturpare lo scenario paesaggistico del luogo e la ricchezza in termini di biodiversità, allontanando, senza dubbio, tutto il turismo ecologico.

Le analisi dei flussi turistici, inoltre, dimostrano che l’esempio della Torre Eiffel paragonata al ponte sullo stretto, non regge. Parigi, infatti, è una città che possiede un’offerta turistica molto diversificata. La Torre Eiffel serve solo a consolidare questa offerta, ma se quest’ultima venisse a mancare, non ci sarebbero ricadute economiche sul settore del turismo.

Considerazioni relative alla economicità della mobilità dell’area

Non esistono, sostiene Marino, evidenze a favore del miglioramento della mobilità dell’area, rispetto alla mobilità interna dello stretto. L’infrastruttura, dunque, causerebbe solo un danno a quest’ultima, in quanto spostarsi da Reggio a Messina, diventerebbe molto costoso in termini di tempo e di costo. Sulla mobilità a lunga distanza, invece, il vantaggio sarebbe di circa dieci minuti; ma ciò, comunque, non sarebbe sufficiente a dimostrare i vantaggi in termini economici dell’opera.

I motivi, inoltre, per cui il risparmio di tempo prodotto dall’infrastruttura non sarebbero sufficienti a dimostrare la sua convenienza economica sono questi:

-Investendo una cifra cento volte inferiore al prezzo del ponte, per rafforzare la rete autostradale siciliana, si produrrebbero vantaggi di percorrenza di 30-60 minuti.

-Il risparmio di 10 minuti è ininfluente per quanto riguarda le lunghe distanze.

-La condizione ottimale del trasporto merci è costituita dalla lunga distanza via mare.

Infine, l’ultimo problema, riguarda il pedaggio che dovrà essere pagato. Tale pedaggio dovrà essere alto, sia per determinare la fattibilità dell’opera in termini economici, sia per limitare la congestione del tratto. Tale condizione potrà solo favorire lo spostamento del sistema di trasporto da quello stradale a quello marittimo.

Conclusioni

Il quadro appena elaborato, secondo Marino, metterebbe in evidenza l’insostenibile leggerezza dell’ipotesi della costruzione del ponte. Il suo giudizio, infatti, ammette la possibilità di sognare un futuro in cui l’opera potrà essere realizzata, favorendo comunque condizioni ottimali; ma, da economista, dice, non è possibile utilizzare la fantascienza per il presente. Cambiamenti economici, tecnologici e sociali, un giorno, magari renderanno necessaria la costruzione del ponte, ma adesso ogni previsione sarebbe solo azzardata.

Al presente, dunque, Marino considera il ponte un’opera insostenibile.

martedì 22 maggio 2012

Enterprise: la navicella di Star Trek pronta entro 20 anni


Quando si parla di costruire una navicella spaziale in grado di ospitare migliaia di persone a bordo, e in grado di raggiungere marte in soli 90 giorni, occorre andarci cauti evitando di farsi prendere troppo dall’eccitazione. Ma la straordinaria cura dei dettagli con cui BTE Dan, il creatore del sito buildtheenterprise.org, ha proposto il suo progetto, non può non suscitare qualche speranza.

La nave in questione dovrebbe essere identica alla Enterprise del famoso telefilm Star Trek, e la sua realizzazione è prevista –sempre secondo l’ideatore del sito- entro venti anni. "Potrebbe raggiungere Marte in 90 giorni, la Luna in appena 3, e lanciare sonde e satelliti di ogni tipo" ha dichiarato BTE Dan, la cui identità appare ancora non verificata; anche se, quest’ultimo, dichiara di essere un ingegnere di sistemi che ha lavorato per trent’anni nella compagnia americana Fortune 500. "Abbiamo la capacità tecnologiche per costruire la prima generazione della navicella spaziale conosciuta come la USS Enterprise, quindi facciamolo" continua BTE Dan.

 Il sito in cui è stato proposto il progetto è completo di disegni concettuali, dettagli di progetto, e addirittura di un calendario di finanziamento. La nave dovrebbe essere spinta da un motore a propulsione ionica alimentato da 1.5GWe di energia elettrica, fornita da un reattore nucleare. L’idea che sta alla base del moto della nave, inoltre, è diversa da quella che sta alla base dei normali razzi chimici, i quali, sono spinti da una forte accelerazione iniziale; l’ Enterprise Gen1, infatti, dovrebbe muoversi con una accelerazione costante, di 0,002 g (una volta uscita dall’orbita terrestre), riuscendo quindi a percorrere grandi distanze, in un lasso di tempo relativamente breve. Per la simulazione della gravità, invece, il progetto propone di costruire un enorme disco rotante di un diametro di 536 metri, in grado di  creare 1 g di forza, pari, quindi, a quella terrestre.

Sempre secondo BTE Dan, questa dovrebbe essere solo la prima di una grande flotta di navi spaziali. Secondo le sue aspettative, infatti, una nave potrebbe essere costruita ogni 33 anni, cosicché ogni nuova nave potrebbe essere aggiornata con i progressi tecnologici dell’epoca.

L’idea appare ancora decisamente fantascientifica, e i dubbi maggiori rimangono sull’identità dell’ideatore del sito. In tutta questa storia, comunque, coloro che guadagneranno di più saranno i fan di Star Trek, i quali, senza dubbio, avranno un nuovo argomento di cui parlare per diverso tempo.

domenica 5 febbraio 2012

Computer quantistici e la potenza dei Qubit

Nel 1936 Alan Turing inventò una macchina in grado di calcolare qualsiasi algoritmo, che oggi porta il suo nome. La macchina di Turing è uno strumento ideale, che permette risolvere algoritmi in maniera efficace, e di qualsiasi portata, attraverso un semplice meccanismo. Immaginatevi un nastro infinito, con impressi alcuni simboli facenti parte di un alfabeto finito. Ora, in un dato luogo del nastro dovrebbe esserci una macchina in grado di leggere i simboli e di cambiarli. Pensate ora che i simboli incisi sul nastro siano 0 e 1, proprio come il codice binario dei computer. All’interno della macchina dovranno esserci degli stati su cui è stato impostato cosa fare, in seguito alla lettura dei simboli. Ad esempio ci saranno scritti i movimenti verso destra o verso sinistra che la macchina deve compiere, o quando deve fermarsi, ecc ecc. In questo modo a seconda dell’evoluzione degli stati interni, la macchina potrà risolvere algoritmi di diversa difficoltà. Ma non esiste un limite teorico per la difficoltà di risoluzione degli algoritmi, quindi, in linea di principio, analogamente a quanto avviene con la macchina di Turing, un qualsiasi personal computer potrebbe risolvere qualsiasi tipo di calcolo. Quello che varia è il tempo impiegato a risolvere l’algoritmo. Dunque al giorno d’oggi, un qualsiasi pc è teoricamente in grado di risolvere qualsiasi tipo di algoritmo..o quasi. Infatti esistono alcuni problemi di natura non deterministica che non possono essere risolti dai normali pc, ma in linea di principio potrebbero essere risolti dai computer quantistici.

Il primo a teorizzare un computer quantistico è stato Richard Feynman, quando nel 1981, al Massachusetts Institute of Technology  (MIT), si tenne il primo convegno sul rapporto tra fisica e computazione. Feynman non era soddisfatto dalla simulazione della realtà emulata dai computer classici; non ci vedeva niente di eclatante. Il fisico era più propenso a gettare le basi per la costruzione teorica di un computer che funzionasse allo stesso modo in cui funziona la natura: attraverso l’indeterminazione. Secondo Feynman per simulare la natura (quando mi riferisco a simulare parlo di tutti quei programmi per la modellazione aerodinamica, bioinformatica, ma anche simulatori di vari modelli, come quelli meteorologici ecc.) bisogna utilizzare i meccanismi della natura stessa; e quindi non è sufficiente utilizzare il mondo classico per costruire i computer: si deve scavare più a fondo e scovare i veri meccanismi che stanno alla base del mondo. Quello a cui Feynman si riferiva era il mondo dei quanti.
Il ventesimo secolo è stato ricco di innovazioni, sotto tutti i punti di vista, ma due in particolare, sono state le vere rivoluzioni scientifiche di quel secolo: la teoria della relatività e la meccanica quantistica. La prima ideata da Albert Einstein, ha rivoluzionato il modo di concepire lo spazio e il tempo, cambiando radicalmente il modo di interpretare gli eventi; senza un sistema di riferimento non è più possibile dire chi di due masse, l’una in moto, l’altra ferma, sia quella in moto. Ma non è questa la teoria che ci interessa ai fini dell’articolo. La meccanica quantistica è il vero succo del discorso. I percussori di questa teoria sono stati molti: Bohr, Heisenberg, Schrödinger, DIrac, Bohm, Pauli, Planck, Fermi, ecc ecc; ma primo su tutti, è di nuovo Albert Einstein, l’unico convinto da subito che la natura della luce fosse anche corpuscolare. Anche se, quella che è stata la sua seconda grande intuizione, si è rivelata, per lui, il più grande flagello della sua vita. Einstein è morto convinto che alla meccanica quantistica mancasse qualcosa, e che i risultati assurdi degli esperimenti con i quanti, fossero dovuti alla mancanza di conoscenze sulla materia che vigevano a quel tempo. Il mondo secondo Einstein era determinato, e soprattutto, diceva: “Dio non gioca a dadi”. Se vi state chiedendo il perché di tutta questo austero rifiuto, da parte del più grande fisico di tutti i tempi, vi accontento subito. La meccanica quantistica fonda la sua esistenza sull’indeterminazione, quindi in linea di principio, se noi lanciamo una palla, non poteremo sapere dove essa andrà a cadere, ma potremo calcolare solo la probabilità del luogo in cui cadrà. Ma allora perché quando lanciamo una palla, sapendo velocità, direzione, verso, intensità, modulo, attrito dell’aria, forza gravitazionale ecc. riusciamo a calcolare dove andrà a finire? Semplicemente perché noi sperimentiamo quello che accade nel mondo classico; nel macromondo. Se, invece, andiamo ad esplorare il mondo dell’infinitamente piccolo, le cose si fanno più complicate. Una particella, non risponde alle leggi classiche della natura, ma a quelle quantistiche; e la meccanica quantistica gioca con le probabilità, non con i fatti. Ma questa probabilità non è determinata dalla mancanza di informazioni, come nel momento in cui lanciamo una moneta: se conoscessimo tutte le proprietà della moneta durante il lancio, sapremo se finirà testa o croce. No, la probabilità quantistica è una probabilità fondamentale, la natura stessa è indeterminata. E questo è espresso attraverso il principio di indeterminazione di Heisenberg, il quale afferma che non si possono conoscere velocità e posizione di una particella, contemporaneamente. Perché? Pensate di dover osservare una particella infinitamente piccola. Nel momento in cui effettuate la misurazione, avrete bisogno di illuminare la particella, per capire dov’è. Quindi considerando che la luce è composta da particelle, i fotoni, per misurare una sola particella, avrete bisogno, di un solo fotone. Ma nel momento in cui fate interagire il fotone con la particella, allora, la prima trasferirà la sua energia alla seconda. Quindi il risultato sarà, che capirete con molta incertezza la posizione della particella, ma sicuramente altererete molto la sua velocità. E viceversa, se volete sapere con precisione la sua posizione, avrete bisogno di illuminarla maglio, con un fotone più energetico, il che vi obbliga ad utilizzare una lunghezza d’onda molto grande, dunque la posizione della posizione della particella vi apparirà totalmente indeterminata. Quindi la misurazione stessa determina l’indeterminazione. Ma quando nessuno le misura? Qui le cose si fanno ancora più interessanti. Se le particelle non vengono osservate (per ora semplifico dicendo “osservate”, ma il semplice fatto di interagire con i fotoni dona una natura corpuscolare alle particelle), la loro natura è ondulatoria e non corpuscolare. Allora la natura delle cose qual è: corpuscolare o ondulatoria? Entrambe, e questo è forse il vero pilastro della meccanica quantistica. A seconda dell’esperimento effettuato, infatti, le particelle ci appaiono sottoforma di onde o corpuscoli. Ma ai fini del nostro articolo quello che conta davvero è la sovrapposizione degli stati. Tutto quello che vi ho spiegato fino ad ora, però, non è stato vano, perché per capire la sovrapposizione degli stati è necessario conoscere quei concetti fondamentali della meccanica quantistica. Ora, considerate che le particelle hanno alcune caratteristiche tipo, quantità di moto, spin, e nel caso degli elettroni: distanza dal nucleo, momento angolare ecc. Queste caratteristiche però non sono perfettamente determinate, anzi prima dell’osservazione queste caratteristiche si trovano miscelate in tutti gli stati possibili. Ovvero, hanno tutti i parametri possibili. Prendete il caso dello spin: questo parametro definisce la rotazione della particella sul proprio asse, e quindi può assumere due valori, o su o giù; ma la particella che non è osservata che spin ha? Su o giù? Entrambe. Infatti una particella che non viene osservata non è dotata di una natura determinata, ma ha tutte le possibili configurazioni. Quindi una particella non osservata si trova miscelata in diversi stati di probabilità. Si può solo dire che tale particella ha un’ampiezza di avere spin su, e un’ampiezza di avere spin giù. E tutto questo cosa centra con i computer quantistici? Se considerate che l’informazione, nei normali computer, viene trasferita dai normali bit, voglio farvi vedere quello che può succedere con i Qubit, i bit analoghi del computer quantistico.

Un normale computer elabora l’informazione tradotta in bit, che può assumere i valori di 0 e 1. Mentre l’informazione elaborata dai computer quantistici esiste sottoforma di ampiezze. Dunque nel caso di un Qubit, l’informazione quantistica può essere letta come 1, come 0 o come la sovrapposizione di tutte e due; il che significa che nel caso di due combinazioni, l’informazione contenuta avrà quattro possibili combinazioni; così che le possibili combinazioni aumenteranno esponenzialmente all’aumentare dei Qubit.
Bene, questo appena descritto è la logica che sta alla base dei computer quantistici, ma vediamo che tipi di problemi possono risolvere.

Abbiamo detto che per la risoluzione dei semplici problemi polinomiali sono sufficienti i moderni pc classici, ma se i computer quantistici fossero utilizzabili per la risoluzione degli NP-completi, il futuro della conoscenza non avrebbe confini. Ma andiamo per gradi. Se ad un computer quantistico fosse affidata la risoluzione di un problema classico, che richiedesse il calcolo di un solo passaggio, il vantaggio non si noterebbe. Infatti al momento della misurazione del registro dei dati, del computer, potremo osservare un solo numero. Nel senso, che come nella misurazione delle particelle, al momento della misurazione avviene il collasso della funzione d’onda (quindi la particella acquista una natura determinata), nel momento della misurazione del registro del computer, avviene la determinazione dei Qubit; il che li rende non più sovrapposti, ma determinati. In questo modo, quando il computer quantistico effettua un solo passaggio, non si nota differenza da un normale computer. Nel momento, però, che i passaggi da effettuare sono molti, allora i vantaggi del computer quantistico si rendono visibili: se un registro contiene molti numeri, un computer quantistico è in grado di effettuare tutti i calcoli su di loro, contemporaneamente. Il risultato, sarà, una incredibile velocità di calcolo. Ma tutto questo si ferma alla risoluzione dei normali problemi, ora, passiamo oltre.

Ma come si costruiscono i computer quantistici?
Da quello che ho descritto durante l’articolo dovreste aver capito che per far funzionare un computer quantistico, è necessario utilizzare i fenomeni del mondo dei quanti. Questi fenomeni avvengono a scale incredibilmente piccole, dell’ordine degli atomi. Ma in che modo i fenomeni quantistici possono trasformarsi in informazione, in Qubit? Se siete a conoscenza del funzionamento dei normali pc, dovreste sapere che l’informazione 0 e 1 viene determinata attraverso il passaggio della corrente nei condensatori. Quindi quando passa corrente si ottiene 1, mentre quando la corrente non passa si ottiene 0. E nei computer quantistici come funziona? Ci sono vari metodi per ottenere l’informazione, come ad esempio stabilire in che orbita si trova un elettrone. Sapete che gli elettroni ruotano intorno agli atomi, in orbite precise; non possono occupare gli stadi intermedi. Quindi a seconda che un elettrone occupi un orbita più o meno eccitata, si otterrà 1 o 0. Ma com’è possibile isolare un atomo per poterlo utilizzare come fonte di informazione? Grazie alle ricerche compiute dal premio Nobel Hans Dehmelt, già da molti anni è possibile isolare un singolo ione (atomo con eccesso o debito di elettroni) con un solo elettrone, in un luogo completamente vuoto2. Ciò avviene utilizzando molti campi magnetici ed elettrici, in modo da mantenere lo ione sospeso all’interno di un dispositivo, isolato dalla materia. Per di più, bombardando lo ione con reggi laser, è possibile mantenerlo sospeso in un punto. Inoltre se ci pensate, per portare l’elettrone a cambiare orbita, ossia a raggiungere uno stato più o meno eccitato, è necessario illuminarlo con un fotone. Quindi a seconda dello stato raggiunto dall’elettrone l’informazione sarà 0 o 1. Ma se l’energia utilizzata per eccitare l’elettrone fosse metà di quella necessaria per fargli cambiare l’orbita, cosa succederebbe? L’elettrone si troverà in una miscela di stati, in cui la sua informazione sarà miscelata tra 0 e 1; sarà contemporaneamente entrambi i valori. Un altro metodo per ottenere dei risultati utilizzando il mondo dei quanti, è la tecnologia NMR (Risonanza Nucleare Magnetica), ideata nel 1997. In questo caso non vengono utilizzati singoli atomi, ma intere molecole. Ogni atomo delle molecole, infatti, dovrebbe contenere un nucleo composto da protoni e neutroni, dotati di spin. Tali spin dovrebbero sommarsi, finendo per escludersi a vicenda, ma se un atomo è dotato di un numero di protoni e neutroni, dispari (ovvero in cui ci sia un protone o un neutrone in più rispetto, ai loro compagni), lo spin dovrebbe fornire l’informazione 1 o 0. Gli atomi a questo punto dovranno essere in grado di interagire gli uni con gli altri, attraverso capi elettromagnetici: dovranno essere uniti in entagled.  Con questo sistema, nel 2001, Isaac Chuang, Gregory Breyta, Mark Sherwood e Costantino Yannoni, dei laboratori IBM di Almaden, insieme a Lieven M.K. Vandersypen e Matthias Steffen, della Stanford University, hanno presentato un esperimento, con cui riuscivano a fattorizzare il numero 15, attraverso una molecola composta da sette spin nucleari (cinque di fluoro e due di carbonio) programmati attraverso radiofrequenze, per interagire e per funzionare da Qubit. Sono poi state sperimentate i quantum dot, ovvero piccole isole di materiale superconduttore, all’interno di un chip. All’interno delle isole sarebbe possibile controllare il numero di elettroni, finendo per intrappolare all’interno di un’isola, un solo elettrone, così da utilizzarlo come Qubit. In questo modo si potrebbero utilizzare chip da molti Qubit. Ultimamente la D-Wave ha presentato il primo computer quantistico in commercio capace di utilizzare 128 Qubit, per fare una sola operazione matematica: l’operazione discreta. Geordie Rose, il fondatore dell’azienda canadese, ha chiarito come è stato risolto uno dei problemi più comuni: l’instabilità dell’informazione quantistica. I sistemi quantistici, infatti, devono essere perfettamente isolati, in quanto risentono di qualsiasi tipo di influsso. Il D-Wave riesce ad ovviare questo problema ricorrendo all’architettura di computer detta “quantistica adiabatica a superconduzione” che consente ai chip di tollerare il rumore termico intrinseco della materia stessa. Anche se, è doveroso dirlo, l’azienda ha subito forti critiche da parte di alcuni scienziati nell’ambito della informatica quantistica. In particolare Scoot Anderson, ha commentato che la dimostrazione compiuta dalla D-Wave non prova niente sull’effettiva funzionalità del computer quantistico. Mentre Umesh Vazirani, professore all'Università di Berkeley, ha detto che probabilmente il D-Wave anche se risulta effettivamente essere un computer quantistico, potrebbe non essere più potente di un normale telefono cellulare. Il futuro, dei computer quantistici, quindi, rimane incerto, ma al di là di quello che si potrebbe pensare, essi potrebbero davvero, un giorno, essere utilizzabili per il potenziamento delle nostre conoscenze, magari non verranno mai utilizzati da folli cracker per rubare codici alle banche, ma da rispettosi scienziati che li utilizzeranno per migliorare la qualità del nostro mondo e della nostra vita.

sabato 24 dicembre 2011

CCC: Cosmologia Ciclica Conforme

Di tutti i modelli che si propongono di descrivere l'origine e la struttura dell'universo, la cosmologia ciclica conforme, è il modello che più aggrada le mie aspettative. Lo so, la scienza non ammette l'utilizzo della soggettività nell'analisi delle teorie, ma io non sono uno scienziato e mi posso permettere di farlo. Questo modello, proposto in via divulgativa nell'ultimo libro di Roger Penrose, l'ideatore della CCC, propone di evitare la singolarità iniziale del Big Bang, e dona una ciclicità ai tempi. L'idea che sta alla base del modello di Penrose, è che sia lo stato iniziale che quello finale dell'universo, dovrebbero in qualche modo perdere traccia del tempo e della massa. Per quanto riguarda il Big Bang, il fisico asserisce che le particelle dovessero essere talmente agitate (ciò era dovuto alle elevatissime temperature) che stando alla teoria della relatività di Einstein, dovrebbero essere state prive di massa. Mentre per quanto riguarda la fine del nostro universo, la perdita di massa, appare un problema enorme, in quanto le galassie, le stelle e i pianeti, sono delle belle masse da far scomparire. Secondo il fisico, però, le masse più grandi del nostro universo dovrebbero essere i buchi neri, i quali, stando all'ipotesi della radiazione di Hawking, dovrebbero evaporare in qualcosa come 10 alla 100 anni. Per quanto riguarda tutte le altre masse, Penrose propone che le particelle che compongono l'universo, dovrebbero decadere in particelle prive di massa. Ora, forse questa è l'unica vera pecca del modello cosmologico, in quanto verrebbe violata una legge fisica: la legge della conservazione della massa. Ma i tempi di decadimento di cui parla Penrose sono talmente lunghi da non poter essere verificati sperimentalmente. Per quanto riguarda il tempo, invece, il fisico asserisce che le particelle di cui doveva essere permeato il Big Bang, come quelle che dovrebbero esistere nelle fasi finali dell'universo, dovrebbero avere velocità prossime a quelle della luce. I fotoni, dunque, che sono le particelle da cui è composta la luce, non hanno massa, in virtù della teoria della relatività. Inoltre sempre grazie alla teoria di Einstein, si sa che le particelle che viaggiano alla velocità della luce non hanno tempo; o meglio, vivono l'eternità. Un corpo, infatti, secondo la teoria della relatività, risente delle scorrere del tempo, in rapporto con la sua velocità. Quindi, se un corpo va più veloce di uno fermo, il tempo che ci mette la lancetta di un orologio a segnare un secondo, di quel corpo, sarà maggiore di quello fermo. Cosicché alla velocità della luce (tetto massimo di velocità raggiungibile) il tempo che passa per i corpi in moto è infinito. Da tutto questo se ne evince che in uno spazio in cui le particelle viaggiano tutte alla velocità della luce, si perda traccia del tempo. Penrose, a questo punto, ammette che sia possibile creare delle geometrie ad hoc per unire la fine dell'universo con l'inizio di uno nuovo, e quindi con il suo Big Bang. Quindi dalla fine di un vecchio universo, ne nascerebbe uno nuovo, e questo durerebbe per l'eternità. Infine la prova della CCC, secondo Penrose, si troverebbe nella mappa della radiazione di fondo a microonde: l'eco del Big Bang. In quella mappa, Penrose, ha individuato dei cerchi concentrici, che dovrebbero essersi formati, in seguito allo scontro tra buchi neri supermassicci, nel precedente universo. Secondo altri astrofisici, i cerchi deriverebbero dallo scontro di bolle di altri universi. La questione rimane aperta.

mercoledì 5 ottobre 2011

Comma 29, "DDL intercettazioni": dove sta la verità?

Molto probabilmente molti miei lettori, avranno notato che in questi giorni l’enciclopedia libera, Wikipedia, ha oscurato le proprie pagine, in forma di protesa contro il comma 29 del DDL intercettazioni. Per farla breve, Wikipedia, in quanto forma di enciclopedia libera, nel senso che gli utenti stessi scrivono le informazioni delle varie voci, si sente limitata nella propria libertà e indipendenza, in quanto obbligata a rettificare le proprie voci, se un singolo si sente offeso per le stesse. In particolare la richiesta del comma agli strumenti informatici (siti internet, blog etc.), è di rettificare il contenuto di una voce, nel caso sia ritenuta lesiva dal soggetto che si sente offeso.  Ora, il problema secondo Wikipedia è questo: L’enciclopedia libera fonda le sue basi sulla neutralità dei contenuti, e quindi non è giusto che un singolo si permetta di richiedere la rettifica di una voce su di esso, senza criteri di giudizio. Quindi, ad esempio, nei confronti di qualsiasi cosa che sia stata scritta su di me su WIkipedia, io ho il diritto di richiedere che sia in qualche modo modificata, senza che un giudice imparziale emetta una valutazione. Ora, lasciando perdere che non sono così interessante da poter finire su di una pagina di Wikipedia, la questione è delicata. Da una parte c’è la mia libertà personale, di non essere diffamato su nessun tipo di strumento di comunicazione, ma questo è già tutelato dall’articolo 595 del codice penale: […] Se l'offesa è recata col mezzo della stampa o con qualsiasi altro mezzo di pubblicità, ovvero in atto pubblico, la pena è della reclusione da sei mesi a tre anni o della multa non inferiore a lire un milione […]. Dall’altro lato c’è la libertà dei mezzi di comunicazione di riportare i fatti, o di esprimere le proprie opinioni sui singoli soggetti, e per tutelare questo esiste l’articolo 21 della costituzione: Tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione. La stampa non può essere soggetta ad autorizzazioni o censure […]. Allora il comma 29 del DDL intercettazioni è giusto o no? Probabilmente la questione è più delicata di quanto potrebbe sembrare. Ma se volete una mia opinione le cose stanno così: io credo che non sia giusto che si possa parlare di me o di chiunque altro in maniera superficiale, senza esplorare a fondo i fatti. Quindi non è giusto che,come accade in molti blog, si riportino fatti che non sono assolutamente reali. O che una supposizione si faccia diventare verità. Ma credo ancora più fortemente nella libertà di stampa e di opinione. Tendenzialmente i mezzi di comunicazione presentano tutti i volti delle opinioni. Nel senso che esistono giornali di destra, giornali di sinistra, siti a favore di determinati personaggi, siti contrari, etc, etc. La varietà della comunicazione garantisce che le varie opinioni siano messe in circolo, in modo da presentare all’opinione pubblica tutto il palcoscenico di notizie. Siano esse più o meno distorte. In questo modo, difficilmente, anche se a volte accade, un singolo soggetto viene messo sotto torchio da tutti i lati. Con questa premessa ritengo che la libertà di pubblicare e di mantenere una voce su di un singolo debba continuare a vigere. D’altro canto credo che non proprio tutto possa essere giustificato. Ecco che in caso ci siano delle prove che smentiscono palesemente una voce, soprattutto se queste voci hanno una natura diffamatoria, devono essere portate in tribunale, e li devono essere giudicate da chi di dovere. Quindi la soluzione per me sarebbe questa: i mezzi di comunicazione devono continuare a pubblicare tutto quello che ritengono necessario, la libertà sul web deve essere garantita, però per quanto riguarda i casi di voci palesemente diffamatorie o ingiustificate, un giusto processo è lecito. Ora la domanda che sorge è questa: La soluzione da me proposta ha carattere puramente utopico? Se si considera il numero spropositato di siti e di persone citate su di essi, probabilmente si, ma un’ulteriore considerazione deve essere espressa: io ho usato i termini “palesemente diffamatorie o ingiustificate” proprio per dare un carattere forte alle questioni che possono essere sottoposte a processo. Quindi, certamente, non tutti i soggetti citati magari per questioni futili, avranno il diritto di rettifica sulle voci che li riguardano, e comunque se si considera utopica la mia idea, anche la richiesta di rettifica per qualsiasi sito o blog da parte di tutti i soggetti lesi, mi suona di difficilmente applicabile. Così che molto probabilmente si arriverebbe ad una condizione in cui tutti i detentori di un sito o un blog, si troveranno in condizioni da non esprimere più opinioni o fatti in quanto soggetti alla paura di essere citati. Mentre nel caso in cui, come ho già detto, i casi di maggiore rilevanza,  vengano portati a giudizio, i titolari di siti e blog ci penseranno due volte prima di raccontare calunnie e falsità.   

martedì 13 settembre 2011

11 settembre 2001: la follia degli attentatori

Molto spesso accade che l'uomo cerchi di improvvisarsi Dio. Può sembrare banale dirlo, ma credo che tutto ciò siamo, perde improvvisamente di valore nel momento in cui le nostre azioni diventano spregevoli. Non credo sia quantificabile l'odio che può essere provato da quegli uomini che l'11 settembre 2001 hanno dirottato i quattro aerei per attaccare l'America. In nome di Dio si sono suicidati portandosi con loro migliaia di persone. Ma la cosa che fa ancora più rabbia è il fatto che nelle loro menti siano davvero stati sicuri di compiere un gesto che Dio avrebbe apprezzato. Ora io mi chiedo, con quale mentalità contorta si può arrivare a pensare che Dio, se esiste, vorrebbe che noi, suoi figli, ci uccidessimo a vicenda? Non credo che questa idea possa essere anche vagamente pensata da una persona sana. L'odio fondamentalista porta sempre a dirigere le menti verso la follia. La rabbia e il dispiacere, marciscono e diventano violenza gratuita; il cervello a quel punto, non merita più di avere l'appellativo di senziente. Credo inoltre che quegli uomini che hanno studiato, organizzato ed effettuato l'attentato alle Torri Gemelle, siano persone gravemente disturbate, ma non come può essere uno psicopatico, no, la loro rabbia nasce da un sentimento molto profondo: per anni devono essersi indottrinati a vicenda, fomentando un odio irrisarcibile e rendendo le loro menti schiave di un fondamentalismo, che la nostra libertà non può nemmeno concepire. Per fortuna esiste una parte di umanità il cui più grande valore rimane il diritto ad essere liberi ed ogni uomo che si rivede in questo valore dovrà lottare affinché la libertà regni per sempre sovrana.
In memoria delle vittime dell'11 settembre.

lunedì 20 giugno 2011

Facebook: pericolo identità

Salve a tutti,  l'argomento di cui voglio parlare oggi è di nuovo facebook, il sito più visitato al mondo. Perché secondo voi le persone mettono la propria identità visibile a tutti? In molti casi voglio credere che la decisione sia presa con coscienza, ma nella maggior parte dei casi credo che sia presa con ingenuità e ridotta riflessione. A questo punto la questione, secondo me, inizia a farsi seria. Inizialmente sembrava un giochetto che era destinato a finire presto, ma con 600 milioni di utenti la situazione è quanto meno delicata. Ora io non sono un genio del computer però voglio avvisare tutti coloro che usano questo mezzo senza conoscerne le basi, di alcune conseguenze di facebook. Per prima cosa voglio partire dalle foto. Siete consapevoli che le vostre foto da internet sono praticamente impossibili da eliminare? Dico impossibile perché ogni foto rimane nei loro server, ormai siete schedati. Inoltre è impossibile perché potrebbe essere stata scaricata da qualcuno e essere stata messa in qualche canale p2p. Cosa sono i canali p2p? Peer to peer è una rete informatica che non ha gerarchia. Per farla semplice tutti i file che entrano in un sistema peer to peer non escono più, poiché i server in cui vengono catalogati, sono i computer degli utenti che utilizzano il servizio. Quindi almeno che non andiate casa per casa a controllare tutti i computer, i file che entrano in peer to peer non escono più.  Avete la minima idea di quanto è immenso internet e quanto vaste siano queste reti? Probabilmente ci sono milioni di siti minori in cui girano foto di ragazze carine prese da facebook, modificate con photoshop e messe in condivisione. Quindi se avete messo la vostra foto su facebook, siate coscienti di aver regalato la vostra identità a chiunque abbia accesso a internet e considerate che solo in Italia sono 25 milioni di persone e nel mondo 1.7 miliardi. Io non sono un ingegnere informatico, né un esperto di computer, però sono riuscito a rubare delle password di facebook. Naturalmente ho fatto tutto questo solo per vedere la difficoltà di compiere un azione del genere e vi posso assicurare che chiunque abbia un minimo di basi informatiche ci può riuscire. Le password le ho rubate a amici che si trovavano con me durante il furto, quindi niente di illegale, ma non tutti sono come me.
Avete mai letto le condizioni d'uso di facebook? per fare un analisi di tutte le norme ci vorrebbe troppo tempo, però voglio farvi notare una piccola parte:
"Per quanto riguarda i contenuti coperti da diritti di proprietà, ad esempio foto e video [..], l'utente concede a Facebook le seguenti autorizzazioni [..]: l'utente fornisce a Facebook una licenza non esclusiva, trasferibile, [..] libera da royalty e valida in tutto il mondo, che consente l'utilizzo di qualsiasi Contenuto IP pubblicato su Facebook o in connessione con Facebook ("Licenza IP"). La Licenza IP termina nel momento in cui l'utente elimina i Contenuti  IP presenti sul suo account, a meno che tali contenuti non siano stati condivisi con terzi e che questi non li abbiano eliminati."