Informazioni personali

La mia foto
Roma, Roma, Italy
Nato a Roma 23 settembre del 1960, laurea in scienze motorie. Dal 1993 mi interesso alla tv satellitare come strumento di crescita culturale. Fondo il gruppo Club Amatori Sat poi detto MOVIMENTO ITALIANO TELEUTENTI SAT riconosciuto da EUTELSAT. 13 gennaio 1998 aderisco ad ADICONSUM come resp. del settore NUOVE TECNOLOGIE. Dal 2008 anche del settore telecomunicazioni. Scrivo numerosi articoli, due guide del consumatore dedicate alla tv satellitare e alla banda larga. Ottobre 2008 rappresento il CNCU nel "Panel sulla tv digitale" di confindustria e nel CNID coordino il gruppo "comunicazione e assistenza utenti"; Ideatore del progetto itinerante DIGITALE CHIARO, per 3 anni in giro per l'Italia spiegando il passaggio alla tv digitale. Sono conciliatore Telecom, Wind,Fastweb, Vodafone, Teletu, Alitalia. Nel 2012 Realizzo il progetto DIFENDI IL TUO AVATAR per sensibilizzare gli utenti su come proteggere la propria identità in rete. Dal 2013 rappresento il CNCU "nel tavolo dedicato alle interferenze LTE".Da 17/5/13 al4/12/14 sono segretario dell' Adiconsum Roma Capitale - Rieti e Lazio.

martedì 2 dicembre 2008

Ricordiamoci che l'IVA la paghiamo noi.


Le tv a pagamento devono essere tutte uguali davanti al fisco, indipendentemente dalla piattaforma usata e dalla modalità di accesso al servizio. Adiconsum chiede IVA uguale per tutte le televisioni a pagamento anche con modalità ricaricabile. Ovviamente in un periodo di crisi come quello attuale, i consumatori si avvantaggiano con imposte basse e quindi con aliquote agevolate. Ora si apre una giusta problematica: a quale bene o servizio va applicata l’aliquota agevolata? Le legge è complessa , prevede tantissime aliquote. tenendo conto dell’utilizzo del bene. Quasi tutti i ben alimentari sono giustamente al 4% o al 10%. Stesso trattamento per i prodotti legati alla sanità. Il legislatore poi ha identificato dei beni da privilegiare come le ristrutturazione delle abitazioni e l’acquisto della prima casa. Il diritto all’informazione, dirittura, fa scendere l’IVA al 4% per i giornali e notiziari quotidiani, libri, periodici. Anche i canoni d’abbonamento (canone RAI) alle radiodiffusioni circolari in chiaro sono al 4%.
La cultura e la formazione dei cittadini viene incentivata prevedendo per gli spettacoli teatrali, di qualsiasi tipo (compresi i concerti musicali ed il circo) l’ l’IVA al 10% e dal 2000 anche il biglietto d’ingresso al cinema e agli spettacoli sportivi è al 10%.
Viene spontaneo chiedersi perché vedere un film , un evento sportivo o musicale trasmesso in televisione deve far pagare ai consumatori l’IVA al 20% ?
Quando si parla dei soldi dei contribuenti occorre usare stessi pesi e misure, altrimenti si fanno favoritismi.
Il Parlamento, discutendo il decreto anticrisi regoli con saggezza tutta la materia delle aliquote IVA, tenendo presente che la cultura non è un bene di lusso e che occorre pagare le stesse tasse sia si si è in un cinema che in poltrona, proponiamo quindi l’IVA al 10% per tutte le pay tv. All'ultima ora, il Ministro Tremonti ci dice che Il caso suul'IVA non si discute, è l'Europa che lo impone. Non è proprio esatto. L'Europa vuole che non ci siano differenze ma non stabilisce le aliquote. E' bene ricordare che l'IVA non la pagano le aziende ma i cittadini, quindi non si stanno tassando le pay tv ma chi le guarda. Già, in periodo di crisi non bisogna guardare la tv (quella generalista si)ma lavorare, lavorare, lavorare...se non ti licenziano.
Ma invece di pensare all'IVA perchè non si vieta alle Pay tv di trasmettere pubblicità?? Questo è un altro discorso....

venerdì 21 novembre 2008

FORUM HD

Quanti convegni in questo periodo.
Parlare di alta definizione mi ha fatto veramente piacere, anche perché il titolo era veramente alettante. Alta definizione su tutte le piattaforme.
Sapete che sono anni che cerco di far capire che i consumatori non vogliono privilegi verso una specifica piattaforma. Purtroppo sull'alta definizione non c'è molta chiarezza e se la si vuol vedere o si usa SKY a pagamento o si aspetta la sperimentazione della RAI, solo sul digitale terrestre, però. Speriamo che questo convegno dia una spinta a tutto il settore. Io mi sono fatto sentire, come al solito.
Ecco quindi il puntale articolo di Key4biz che racconta il convegno:

La Conferenza annuale dell’HD Forum Italia, che quest’anno si è svolta il 20 novembre presso la sala degli Arazzi della sede Rai, ha avuto come protagonisti alcuni dei principali esponenti dello scenario italiano dell’alta definizione. Intitolata “L’Alta Definizione: verso un servizio fruibile su tutte le piattaforme di distribuzione”, la conferenza è stata anche l’occasione per presentare il frutto del lavoro dell’associazione nel 2008: l’HD Book 1.0 (DTT).

La pubblicazione dell’HD Book 1.0 (DTT), nato sulla scia del D-Book edito per la prima volta nel 2004, intende coordinare le numerose opzioni possibili per la fabbricazione degli apparati di ricezione ad alta definizione (Set Top Box e televisori integrati su piattaforma digitale terrestre) sulla base di norme tecniche internazionali al fine di garantire semplicità di fruizione e compatibilità tra contenuti HD e SD trasmessi dai broadcaster italiani verso i ricevitori compatibili. Le specifiche tecniche considerate nel volume riguardano tecniche di codifica, risoluzioni e formati di visualizzazione, trattamento del segnale audio, supporto di servizi ausiliari per persone con deficit uditivo e/o visivo, automatismi di numerazione e gestione dei canali rilevati durante la sintonia iniziale. I lavori della Conferenza sono stati aperti da Benito Manlio Mari, presidente dell’HD Forum Italia, che ha spiegato come l’HD Book Vol. 1 rientri in un progetto più ampio e complesso chiamato HD Book Collection, che comprende una serie coordinata di volumi specificamente dedicati ognuno ad una delle quattro piattaforme che possono essere utilizzate per la ricezione ad alta definizione. “Bisogna guardare in via trasversale la distribuzione dei contenuti ad alta definizione sulle varie piattaforme: digitale terrestre, satellite, IPTV e Package Media. Il primo volume dell’HD Book Collection è appunto dedicato al digitale terrestre e vuole coordinare le varie opzioni per la fabbricazione degli apparati di ricezione ad alta definizione, siano essi decoder o televisori integrati. Secondo la fonte GFK”, prosegue Mari, “ a settembre 2008 i televisori HD Ready venduti in Italia erano 9,4 milioni, con il conseguente declino delle vendite di apparecchi televisivi 4:3 ed un evidente aumento della penetrazione dei televisori 16:9, sia HD Ready che Full HD, più adatti ad una migliore fruizione della televisione digitale”.

A questo va aggiunto che in Italia sono 6,3 milioni le famiglie dotate di accesso alla televisione digitale terrestre e che dei 4,6 milioni di abbonati Sky, sono 100.000 quelli abbonati anche all’alta definizione. Fastweb conta oltre 300.000 abbonati ed Alice più di 220.000 ed i Set Top Box per la ricezione dell’IPTV sono pronti a decodificare anche i segnali dell’alta definizione. Per quanto concerne il Package Media, oggi la percentuale di Major che stanno creando contenuti in alta definizione è pari solo all’1,2%, ma questo è un dato in forte crescita. Alla relazione introduttiva del presidente ha fatto seguito l’intervento del Direttore Strategie Tecnologiche Rai, Luigi Rocchi, che ha aperto i lavori illustrando come l’alta definizione sia un grande obiettivo sia per la Rai come servizio pubblico che per il Sistema Paese nel suo complesso. Alla luce, infatti, della crescita esponenziale di televisori LCD/plasma HD Ready, del numero di canali ad alta definizione offerti da tutte le piattaforme, dei contenuti premium e di lettori per film e videogiochi in alta definizione, l’utente si aspetta sempre più una maggiore qualità per la sua esperienza di fruizione, come ad esempio garantisce la visione di contenuti ad alta definizione su uno schermo panoramico 16:9. “Nel caso dell’alta definizione”, spiega Rocchi, “il mercato è arrivato ad anticipare l’offerta rendendo necessaria una variazione degli asset dell’utente. Secondo l’EBU è in costante crescita il numero di televisori a schermo piatto venduti e sta aumentando anche la diffusione della tecnologia OLED (Organic Light Emitting Diode ovvero diodo organico ad emissione di luce). Si stanno, inoltre, conducendo esperimenti di olografia, meglio detta tomografia tridimensionale, che rendono sempre più evidente il bisogno di alta definizione. (…) Lo sforzo Rai nell’ambito dell’innovazione tecnologica è significativo, ma non si deve sottovalutare il problema delle risorse poiché sarebbe un errore fare innovazione, rinnovare il parco delle attrezzature e poi trascurare i contenuti. Per il 2009, infatti, Rai sta preparando un nuovo canale da distribuire su tutte le piattaforme e sta prendendo accordi con BBC e NHK per lo sviluppo di nuovi standard. Già nel corso del 2008, infine, si è impegnata nella sperimentazione a livello mondiale di SHV (Super Hi-Vision) per la veicolazione di contenuti ad altissima definizione”. Per spiegare meglio l’impegno quasi trentennale che Rai ha profuso nello sviluppo dell’alta definizione è intervenuto il prof. Giuliano Montaldo, regista del cortometraggio “Arlecchino”, prodotto da Rai nel novembre del 1982 su proposta di Massimo Fichera, che all’epoca era responsabile delle Nuove Tecnologie, e premiato nel 1983 come miglior film che ha implementato le nuove tecnologie applicate al cinema. Nel 1982, in tutto il mondo erano disponibili solo due telecamere, tre monitor e due registratori per l’alta definizione. Quando la troupe è arrivata a Venezia l’attrezzatura era impegnata in Francia, perciò sono state fedelmente riprodotte le macchine con il polistirolo per poter prendere le misure per il cablaggio e portare avanti il lavoro in attesa delle riprese vere e proprie. Quando è arrivato dalla Francia il tir contenente le apparecchiature, il lavoro è stato portato a termine in tre giorni. Montaldo, che si è avvalso del supporto di Storaro come direttore della fotografia, ha spiegato che Arlecchino è nato come esperimento: “Volevamo fare sperimentazione anche per il cinema e volevamo verificare se queste nuove tecnologie avrebbero retto l’impatto con l’esterno, soprattutto in una città come Venezia, che presenta condizioni climatiche disagiate. Arlecchino è stato dunque girato sia su pellicola 35mm che su nastro videomagnetico ad alta definizione in formato 5:3. L’esperimento è stato fantastico: tutti hanno sentito che stava accadendo qualcosa di importante nella storia della televisione e del cinema e che stava iniziando una lunga e lenta agonia della pellicola. È inutile usare la penna d’oca quando si può usare il computer”. L’intervento del Prof. Montaldo è stato seguito da quello del vice presidente dell’HD Forum Italia, Marco Pellegrinato, che a distanza di quattro anni dalla presentazione del D-Book nel centro di produzione Rai di Napoli, ha ripreso la presentazione dell’HD Book DTT Vol. 1 anticipata dal presidente Mari. Pellegrinato, infatti, ha spiegato che la maggiore grandezza degli schermi richiede un aumento anche delle immagini e della capacità del suono, che altrimenti non basterebbero più. “È per questo che nasce l’alta definizione e l’HD Book vuole definire l’applicazione degli standard e le specifiche per la fruizione dell’alta definizione. Tra le principali specifiche dell’alta definizione ci sono l’economia delle risorse per migliorare lo sfruttamento dello spettro, la protezione dei contenuti, il supporto ai servizi di utilità sociale in particolare per gli utenti con un deficit uditivo e visivo e la promozione dell’HD experience, che deve essere per l’utente un’esperienza da vivere fino in fondo. L’alta definizione è una tecnologia abilitante per le piattaforme e l’HD Forum vuole renderne omogenea la qualità. Ad esempio, è stato scelto a livello europeo uno standard per la numerazione nazionale dei canali così da evitare problemi con le regioni di confine”.

Dopo l’intervento di Pellegrinato è stata avviata la tavola rotonda, moderata dal giornalista de Il Sole 24 Ore Marco Mele. Il primo ad avere la parola è stato Andrea Ambrogetti, presidente di DGTVi, che ha aperto il discorso evidenziando come i risultati ottenuti con lo switch-off della Sardegna hanno confermato che la televisione digitale terrestre è la piattaforma di elezione della televisione generalista: “In Sardegna il 94% delle famiglie è dotato di digitale terrestre. Addirittura oltre il 75% possiede solo la televisione digitale terrestre, mentre solo il 15% adotta questa piattaforma in concomitanza anche di altra. Nel 2009 il 35% dell’Italia fruirà di questa piattaforma e l’alta definizione è un driver strategico di sviluppo. Rai e Mediaset hanno fermamente intenzione di rovesciare la tendenza e di rendere l’alta definizione non un lusso di pochi tra pochi, ma un’esperienza coinvolgente accessibile per tutti. Attualmente l’esigenza primaria è quella di dare certezze ai consumatori, poiché ogni mese si vendono 150.000 decoder e 350.000 ricevitori di cui la maggior parte sono HD Ready o Full HD. Se un mercato non ha certezze, non si sviluppa e non stiamo parlando del futuro quanto piuttosto del presente. Uno degli obiettivi dell’HD Book è quello di istituire un bollino che certifichi agli utenti che un certo ricevitore possiede tutti i requisiti e tutte le funzionalità necessari. Dal momento che negli altri Paesi quasi l’80% del mercato dei ricevitori integrati è costituito da apparecchi che rispondono alle indicazioni dell’HD Book, in Italia i prossimi 18 mesi saranno decisivi. DGTVi chiederà a tutte le aziende produttrici di adeguarsi entro il 2009 alle nuove tecnologie”. A portare il punto di vista delle piattaforme satellitari è stato Marcello Berengo Gardin , responsabile degli Affari Istituzionali per Sky Italia che nel 2006 era l’unico broadcaster a trasmettere in alta definizione con quattro canali centrati su due forti driver, ovvero cinema e sport.La novità tecnologica che accompagna l’offerta di HD di Sky”, spiega Berengo Gardin, “è MySky HD, un personal video recorder che permette di vedere e registrare i programmi ed è gestibile anche da remoto. Il problema, tuttavia, è che gli utenti sono confusi poiché non hanno ancora compreso che l’acquisto di un apparecchio HD Ready non equivale ad essere effettivamente abilitati alla fruizione dell’alta definizione poiché occorre anche un decoder. Gli utenti informati sono il 62% della popolazione in Europa e il 68% in Italia e si continuano a vendere più schermi piatti che televisori HD Ready o Full HD”.

A riportare l’attenzione sulle infrastrutture tecnologiche è stato Luca Pesando, di Telecom Italia, che ha evidenziato come nel mercato dell’IPTV siano molti i fornitori che adottano un’infrastruttura chiusa, rendendo stretto il rapporto tra provider e fornitori di tecnologie. “Occorre creare una trasversalità della tecnologia che svincoli i provider da questa situazione”, dice Pesando, “ed offrire una piattaforma comune che integri i servizi con la user experience per la fruizione di più contenuti da piattaforme differenti. La standardizzazione in corso è tanta, ma non è omogenea ed è troppo frammentata. La tecnologia deve essere vista come un discorso end to end”.

Roberto Bedani, segretario generale ANIE, ha ripreso le parole di Andrea Ambrogetti relative allo sforzo che viene chiesto oggi all’industria nella creazione di un profilo italiano. “Il decoder per definizione”, chiarisce Bedani, “ha o un profilo Paese o un profilo tarato sul broadcaster. Oggi i decoder hanno un profilo italiano, i televisori no. Il nostro auspicio è che lo standard volontario diventi uno standard di fatto, anche con la certificazione DGTVi. Il mercato italiano, infatti, ha una base installata di apparecchi televisivi ad alta definizione che è tra le più grandi in Europa, ma non trova rispondenza nell’offerta di contenuti free. Il pubblico italiano ha anticipato la tecnologia ed il consumatore va ricompensato dell’investimento fatto perché l’acquisto di un televisore non è come l’acquisto di un telefono cellulare: il ciclo di vita di un televisore è di circa 8/10 anni. Oggi è difficile dire se la soluzione adottata sarà la più economica e la più efficiente anche tra due anni: ci vuole coesione per garantire che le scelte tecnologiche vedono l’utente ed il suo interesse in una posizione centrale. Occorre, quindi, insistere sulla comunicazione al consumatore affinché non senta di effettuare acquisti incauti. Lo scopo è quello di fare crescere questo mercato per il quale i consumatori ci hanno dato una fiducia che non va tradita”.

A completare l’intervento di Bedani è stato di nuovo lo stesso Ambrogetti, che ha messo bene in evidenza come lo sforzo chiesto ai produttori che è stato più volte citato nell’arco della mattinata sia in realtà uno sforzo che promette di essere ben ripagato: “Il passaggio imminente di cui stiamo per essere testimoni non si ripeterà più forse per altri vent’anni. Poiché deve raddoppiare il numero dei ricevitori venduti, per i produttori che colgono la sfida e fanno lo sforzo c’è anche la possibilità di raddoppiare le proprie dimensioni. Questa sfida alla fine contiene un’occasione. Se l’utente investe, preoccupiamoci di fare in modo che il suo investimento sia il più completo possibile e a lungo termine. Prendiamo come esempio la telefonia mobile: gli SMS sono nati tre anni dopo il passaggio al GSM ed oggi generano da soli un fatturato pari a 5 miliardi di euro”.

Dopo aver analizzato lo stato dell’alta definizione dal punto di vista delle piattaforme, è stato chiamato a portare il punto di vista degli utenti Mauro Vergari, responsabile Settore Nuove Tecnologie di Adiconsum. “Una buona esperienza di un prodotto multimediale è un diritto del consumatore”, esordisce Vergari, “e chi produce ha il dovere di offrire anche a titolo gratuito una user experience di bel vedere e bel sentire. Attualmente i consumatori sono costretti a rivolgersi alla pay tv e Adiconsum vuole invertire questa tendenza. Gli utenti non sono assolutamente informati in modo chiaro ed esaustivo sui prodotti offerti dal mercato e l’evoluzione tecnologica è n mano ai privati, mentre noi vorremmo che l’istituzione assumesse un ruolo di rilievo e cominciasse a dare certezze ai cittadini: non è un caso, infatti, che in Francia prima è stata fatta una legge e subito dopo sono stati messi a disposizione dei consumatori cinque canali ad alta definizione gratuiti sia sul satellite che sul digitale terrestre. In Italia, invece, non si riesce nemmeno a fare vedere satellite e digitale terrestre in 16:9 e la Rai ha un canale sperimentale ad alta definizione che spesso è nero, mentre dovrebbe mandare sempre in onda qualcosa anche a costo di ripetersi per avvicinare il consumatore. Quello che bisogna capire è che gli italiani non stanno dando fiducia all’alta definizione nell’acquistare i televisori, bensì alla grandezza e alla novità (…) quando gli utenti comprano un televisore con il logo HD non sanno che non è detto che quel televisore che stanno comprando abbia al suo interno il decoder necessario per la fruizione dell’alta definizione. La scelta della piattaforma è un diritto del consumatore, che deve capire che l’esperienza di un buon prodotto è utile anche per l’evoluzione della propria cultura e del proprio essere. Si può costruire solo dialogando e Adiconsum è più che aperta e disponibile a questo dialogo”.

La stessa disponibilità ed apertura sono state manifestate da Enzo Candido, Responsabile per i progetti speciali di Andec, che ha fatto un breve intervento fuori programma: “Andec rappresenta da 25 anni nell’ambito di Confcommercio le aziende produttrici ed importatrici di elettronica di consumo. Abbiamo istituito un osservatorio per informare i nostri associati e per fornire un supporto alla realizzazione dei progetti. Il nostro invito è, quindi, quello di usare le risorse che Andec può mettere a disposizione”. Prima che venissero proiettate delle immagini ad alta definizione riassuntive dell’evoluzione subita da questa tecnologia dal 1983 ad oggi, è intervenuto anche Mario Frullone, direttore delle Ricerche della Fondazione Ugo Bordoni. “Quando pensiamo all’alta definizione immaginiamo tutte le piattaforme tecnologiche su cui può essere fruita, ma le risorse sono diverse. L’offerta satellitare è già molto ricca, ma l’alta definizione può essere realmente portata a tutti solo attraverso il digitale terrestre. In Italia l’Autorità ha individuato avanzati criteri di pianificazione delle risorse che nel tempo in Europa saranno valutati con attenzione sempre crescente. La strada avanzata che abbiamo seguito ha fatto sì che oggi l’Italia può vantare oltre trenta multiplex contro i tredici della Francia. È stata portata avanti un’intensa attività che ha condotto ad una disponibilità di risorse reali che è la premessa per un’offerta più ampia, non ci i deve adagiare sui successi passati, ma non si può non gioire del successo dello switch-off in Sardegna che non ha creato alcun problema con i Paesi confinanti ed ha avuto una buona accoglienza da parte dell’utenza sarda. Bisogna, tuttavia, notare che delle 650.000 famiglie sarde che fruiscono del digitale terrestre solo una piccola percentuale ad una cifra può vedere l’alta definizione”.

Le conclusioni dei lavori sono state affidate al segretario generale Agcom, Roberto Viola, nominato giorni fa vicepresidente per il 2009 del Radio Spectrum Policy Group, l'organismo istituito dalla Commissione Europea che adotta pareri di assistenza e consulenza su questioni di politica dello spettro radio e sulle condizioni per il suo utilizzo. Viola ha subito messo in rilievo come l’Italia stia andando nella giusta direzione. “L’alta definizione è un grande motore di sviluppo perché spinge la domanda di banda larga, tecnologia e prodotti audiovisivi” e rappresenta quindi “una possibilità di dare nuovo impulso alla televisione italiana. La vera trasformazione della televisione analogica è il percorso verso l’alta definizione, che deve essere considerata come un punto di partenza nella pianificazione delle risorse. La rete basata sulle SFN in Sardegna lascerà una disponibilità di risorse più ampia rispetto ad altri Paesi. Compito dell’Autorità è di garantire una pianificazione che assicuri “risorse per l’alta definizione e margini per la produzione di contenuti in alta definizione”.
Teresa Di Maio


Identità digitale

Il 18 dicembre sono stato relatore nel convegno: Identità Digitale- tecnologia e sfide.
Riporto un articolo di Key4biz che illustra bene i vari interventi.
..........................................................................................................................................................................
Teresa Schwarzhoff - William MacGrego
National Institute of Standards and Technology (NIST)
18 Novembre 2008
Centro Congressi Palazzo Rospigliosi - Sala delle Statue
Via XXIV Maggio, 43 - Roma
...........................................................................................................................................................................

Articolo tratto dal www.key4biz.it

12° Seminario Bordoni: identità digitale, tecnologie e sfide. Definire subito regole e strumenti per la PA

Dodicesimo e ultimo appuntamento del ciclo dei Seminari Bordoni per l’anno in corso, quello del 18 novembre, dal titolo: “Identità digitale: tecnologie e sfide”. Un argomento, quello dell’identità digitale e del suo riconoscimento, particolarmente delicato in cui istituzioni e mercato si trovano a misurarsi con nuove sfide e criticità, sia tecnologiche che normative. Applicazioni di dispositivi che trovano spazio e terreno di prova soprattutto nei Paesi industrializzati, quindi USA e Europa. Anche in Italia ovviamente, dove nuovi strumenti sono già stati concepiti da varie istituzioni per le diverse esigenze della Pubblica Amministrazione tra cui: la Carta Nazionale e Regionale dei Servizi (CNS-CNR), la Carta Multiservizi della Difesa (CMD), la Carta d'Identità Elettronica (CIE) e il Passaporto Elettronico (PE). Tra i diversi problemi emersi sicuramente c’è quello relativo all’interoperabilità degli strumenti adottati per un mutuo riconoscimento delle identificazioni. Un’esigenza concreta di definire e di mantenere aggiornati criteri e regolamenti concordati e condivisi tra tutti i soggetti coinvolti. Per tale motivo tecnologie, standard, processi realizzativi e problemi di sicurezza nell'utilizzo costituiscono i capisaldi di un’intensa attività di cooperazione internazionale. Di queste tematiche hanno parlato i due relatori d’eccezione invitati a questo nuovo appuntamento dei Seminari Bordoni: Teresa Schwarzhoff e William MacGregor del National Institute of Standards and Technology (NIST). Entrambi coordinano importanti attività nell'ambito dei programmi di Personal Identify Verification (PIV) e Identity Management Systems (IMS) portati avanti dal NIST.

In particolare, si occupano di normativa tecnica per carte di identificazione digitale compatibili con la Direttiva Presidenziale statunitense n.12 dell’Homeland Security, di standard per l'interoperabilità su scala mondiale e di interfacce biometriche unitamente ai relativi sistemi di gestione. Coordinatore della prima sessione è stato Sebastiano Trigila , della Fondazione Ugo Bordoni , che introducendo i due ospiti ha fissato, nella definizione delle regole e degli strumenti in possesso degli enti pubblici, i temi su cui poi si è dibattuto anche nella consueta tavola rotonda pomeridiana. “…Il rapporto tra Pubblica Amministrazione e cittadini vede nel riconoscimento dell’identità digitale un nuovo processo di cambiamento ancora tutto da decifrare. I processi di digitalizzazione determinano la nascita di nuovi strumenti e l’avvento di nuove sfide, a cui i soggetti pubblici e i cittadini sono chiamati a rispondere con un approccio diverso e per certi versi più complesso. La dematerializzazione del concetto stesso di identità e di identificazione della persona, porta con sé nuove istanze di sicurezza e di tutela dei dati personali, non più solamente nazionali, ma che travalicano i confini e si intrecciano inesorabilmente con il mondo di Internet”.

Un ambiente quindi segnato dai processi di mobilità e dall’esigenza forte di interoperabilità, espressione sia delle istituzioni che dei mercati. Teresa Schwarzhoff del NIST ha mostrato nel suo intervento quanto anche nei piani federali degli Stati Uniti sia centrale la mutualità tecnologica e di processo degli strumenti a disposizione: “… Uno dei più recenti standard federali è stato elaborato all’indomani dell’11 settembre, proprio per migliorare la definizione di sicurezza assieme al concetto di identità digitale. Uno standard che, come per i precedenti, prevede un’adesione totalmente volontaria. I campi di intervento sono stati individuati tramite gli standard ISO/IEC nel settore delle telecomunicazioni, delle biometrie e della sicurezza tecnologica, a cui di recente si è aggiunta quella cibernetica. Attenzione particolare è stata data alla definizione di identità digitale e all’identity management, con l’estensione del dibattito alla biometria e agli strumenti più idonei che la tecnologia ci ha fornito”. Una situazione che evidenzia degli ottimi risultati, anche se ottenuti solo dopo aver risolto numerosi problemi, tra cui la mancanza di un coordinamento tra singoli Stati. Dopo una lunga indagine, che ha visto coinvolte le tante agenzie di sicurezza nazionali e locali, è emerso che negli USA c’erano più di 3.000 sistemi di sicurezza che adottavano altrettanti meccanismi di controllo dell’identità. “…Abbiamo capito - ha sottolineato la Schwarzhoff - quanto era importante un piano di intervento a livello federale per rendere le informazioni più integrabili e interscambiabili. Bisognava in sostanza lavorare su una rete comune, con dati condivisibili e risultati confrontabili. Ecco che lo standard e le sue caratteristiche di interoperabilità hanno acquistato immediatamente un ruolo decisivo nel piano di sicurezza nazionale, sia in termini di risultati immediati, che di contenimento delle spese”.

Un’area di particolare interesse su cui si stanno concentrando gli interventi del governo americano, ha fatto notare la relatrice, è costituita dall’analisi della vulnerabilità dei dati e dal flusso di approvvigionamento informatico della ‘supply chain IT’. Un campo nuovo su cui agire, ma in cui è fondamentale misurare con uno scarto minimo il fattore di rischio, che non può certo essere eliminato, ma sicuramente isolato e limitato nelle conseguenze. Gli strumenti utilizzati dal NIST sono tutti caratterizzati dalla non invasività e dall’accettazione volontaria da parte dei soggetti interessati, quindi anche i cittadini e gli utenti di Internet. Decisivi risultano essere in tale ambito gli standard di interoperabilità, che nel nuovo protocollo ISO/IEC 24727 hanno visto un forte processo di accorpamento di proprietà tecnologiche in un unico set applicativo, in cui racchiudere un ampio sottosistema di standard minori: meccanismi di identificazione e criptografia, di autentificazione e propedeutici i servizi di firma digitale. “…Altrettanto importante in questa fase di studio dello standard- conclude la Schwarzhoff - è stata anche la definizione di una terminologia specifica da tutti riconosciuta, delle componenti base di cui il sistema si deve munire e quindi la standardizzazione degli elementi normativi. Ad oggi, lo standard è utilizzato da un’ampia comunità internazionale, che oltre agli USA vede ad esempio l’Australia, per la certificazione delle patenti di guida, e parte dell’Europa, in particolare in Germania con la carta sanitaria e di identità”.

Più centrato sulla sicurezza dei dati sensibili e sulla lotta alla criminalità digitale è stato l’intervento seguente di William MacGregor, coordinatore dei progetti di verifica e accertamento delle identità, centrato sulle pratiche illecite di appropriamento dei dati personali sempre più esposti ad azioni di appropriazione indebita sul web: “… I virus si appropriano di dati sensibili, stringhe di dati appartenenti a grandi aziende o istituti bancari. Come rendere i sistemi di sicurezza più affidabili? Gli strumenti si realizzano a partire da una precisa definizione di sicurezza da tutti condivisa, anche perché i campi di utilizzo sono molto ampi, dalla sanità all’informazione, dall’e-banking all’e-Gov”. L’entrata nell’era del digitale ha significato una più forte integrazione dei servizi, efficienza e riduzione dei costi, mobilità e sicurezza nell’accesso ai dati in un ambiente partecipativo dove anche gli individui vestono i panni dei cittadini e degli utenti, responsabilizzandosi e condividendo diritti e doveri nuovi. Ovviamente, come ha sottolineato anche MacGregor, i sistemi che sottintendono tale ambiente devono poter controllare le identità dei cittadini/utenti, in modo da accrescere la sicurezza collettiva. “…La cyber scienza si divide- ha continuato il membro del NIST- in alcune discipline, tra cui la sicurezza delle applicazioni, il nuovo Identity Management System (IMS) e la sicurezza del network. La sicurezza passa per la definizione di identità digitale, attraverso le specifiche di identità, il processo di autenticazione e profilazione dell’utente. La complessità delle comunità di riferimento rendono poi tali processi ulteriormente più stratificati, arrivando alla determinazione di sistemi di identificazione molto più articolati, fino ad una verifica comunque certa dell’utente che chiede accesso. Gli strumenti che vengono utilizzati sono identificatori e autenticatori di diverso tipo. I primi servono a denotare le caratteristiche basilari del soggetto analizzato, attraverso password, pin, token e altri elementi direttamente riconducibili all’utente”. Uno dei risultati ottenuti con la Direttiva 12 dell’US Homeland Security del 2004 sono le Personal Identity Verification (PIV) Card, finalizzata al controllo rapido e all’accesso controllato ai diversi sistemi IT logici e a strutture fisiche grazie a una combinazione di avanzate tecnologie di autenticazione quali biometrica, password, PIN, smart card, certificati digitali e molto altro. In conclusione di intervento, a detta di MacGregor sarebbero 1,6 milioni le PIV card in circolazione negli USA: “…I sistemi di identificazione digitale devono mantenere una struttura aperta, proprio per poter integrare le nuove specifiche derivanti dal progresso di avanzamento degli strumenti di lotta alla criminalità digitale. Importante sarà aumentare le capacità dei lettori di interagire con più tipologie di carte elettroniche, mentre la biometria avrà un peso sempre più decisivo, coinvolgendo nuove specifiche fisiche come il riconoscimento dell’iride, l’impronta digitale e il riconoscimento del volto. Lo standard 24727 avrà un ruolo fondamentale per le carte PIV dei prossimi anni, sviluppando interfacce digitali più avanzate. I prossimi dispositivi potrebbero inoltre interfacciarsi con lap top e cellulari”.

A chiusura della prima sessione è intervenuto Franco Guida della Fondazione Ugo Bordoni, il quale ha mostrato il legame che c’è tra le specifiche di sicurezza ICT e la definizione dell’identità digitale. Un legame che passa proprio per il monitoraggio dei sistemi di accesso ai dati, alle risorse e ai servizi offerti dalla rete. In questo settore di studi la FUB affianca da tempo l’ISCOM (Istituto Superiore delle Comunicazioni e delle Tecnologie dell'Informazione) e quindi il ministero dello Sviluppo Economico e della Comunicazione nelle funzioni di certificazione della sicurezza di sistemi ICT e nella verifica del soddisfacimento dei requisiti della direttiva europea 1999/93 EC sulla firma elettronica. “…I sistemi ICT sono molto importanti per contrastare le minacce causate da eventi di varia natura e nella determinazione delle contromisure e dei livelli di sicurezza più adeguati. Generalmente si può verificare l’identità digitale di un individuo attraverso strumenti tradizionali quali PIN, password o chiave di firma, ma anche tramite il possesso di oggetti specifici come carte magnetiche o smart-card,o attraverso le caratteristiche biometriche o comportamentali precedentemente acquisite e misurate. I sistemi caratterizzati, invece, dalla firma elettronica europea contengono la necessità di una forte garanzia che chi utilizza un dispositivo di firma ne sia il legittimo titolare. Questo evidenzia il bisogno di un impegno maggiore nel colmare l’incompletezza o l’assenza di specifiche e verifiche sulle rimanenti parti dei dispositivi di generazione della firma, su cui intervenire per elevare il livello di difesa”.

Come di consueto per gli appuntamenti dei Seminari Bordoni, è seguita al primo panel di relatori una tavola rotonda, in cui varie istituzioni di primaria importanza nazionale hanno presentato gli strumenti di identificazione digitale di propria competenza, per discutere delle sfide poste dall'utilizzazione generalizzata di tali strumenti. Moderatore della sessione pomeridiana è stato Mario Frullone, Direttore delle ricerche della Fondazione Ugo Bordoni, che aprendo i lavori ha dato subito la parola a Giovanni Buttarelli del Garante per la protezione dei dati personali. Un intervento che ha permesso di riportare il concetto di identità digitale nell’alveo dei diritti individuali e dei sistemi normativi internazionali: “…Nel concetto di Digital Identity - ha spiegato Buttarelli- possiamo evidenziare tre distinti diritti tra loro collegati: che i soggetti pubblici possano utilizzare in modo dignitoso le nuove tecnologie, che l’uso di tali tecniche sia conformato in concreto a quelle che sono le tematiche insite nei diritti fondamentali dei cittadini e che le Pubbliche Amministrazioni si adeguino a tali livelli di innovazione tecnologica. Quando si parla di diritti, si parla soprattutto di dignità della persona e anche per il concetto di identità digitale continuano a valere tali specifiche giuridiche. Quando poi si parla di identificazione delle persone, si parla anche di affidabilità delle informazioni raccolte e di sicurezza delle stesse. Pensiamo allora al luogo in cui depositare e conservare questi dati, magari a un ‘one-box-only’, unico spazio di conservazione e tutela dei dati. Certo, sono al vaglio altre ipotesi, perché in molti si chiedono se sia il caso o meno di concentrare tale fonti in un unico luogo fisico. Riguardo alla sicurezza dei dati, c’è da pensare alle modalità con cui determinati soggetti potranno accedere a tali dati, con l’esigenza di predisporre meccanismi ad hoc e altamente definiti in termini di sicurezza e verifica. La conservazione dei dati è un problema molto serio, perché le specifiche tecniche ci dicono che i tempi di tenuta sono sempre più brevi e che i criminali informatici sempre più veloci nel decriptare i sistemi di difesa”.

Sulle novità relative all’identità digitale e alle carte elettroniche ha dato il suo contributo al Seminario anche il ministero degli Interni con Giuseppe Castaldo, il quale ha raccontato le alterne vicende della carta di identità elettronica in Italia che dal 1997 attende una sua completa distribuzione al cittadino: “…Sono anni che il ministero chiede la definitiva introduzione della carta di identità elettronica, ma tra ritardi e mancanza di finanziamenti siamo ancora in una situazione di stallo. Da colmare perché tale supporto elettronico è uno strumento valido di accesso alla rete e ai suoi servizi, con una gestione dei dati ad alto livello di sicurezza e protetti nel rispetto della privacy. Si tratta tuttavia di un sistema da monitorare continuamente per prevenire ogni tipo di vulnerabilità. La carta, che è stata localmente erogata ai cittadini, vede coinvolti circa 80 comuni in Italia ed è supportata da un progetto che prevede sistemi di autofinanziamento sia agli enti pubblici locali che centrali. Sotto il profilo tecnico, invece, bisogna ancora fissare le tante competenze a seconda dei diversi attori chiamati ad agire, tra chi si occupa dell’aspetto economico, chi dei servizi, chi del rilascio della carta elettronica e molto altro. Uno dei problemi che più preoccupa è poi legato alla durata di tali carte. La carta di identità fisica è valida per dieci anni, ma quella elettronica no, non più di cinque. Questo perché purtroppo le specifiche tecniche e tecnologiche di sicurezza non permettono allo stato attuale della ricerca di andare oltre un dato orizzonte temporale”. Più in profondità col suo discorso è sceso Giovanni Manca del CNIPA, che vede nell’interoperabilità sia una necessità, sia un problema di ordine tecnologico e regolatorio: “…Si parla di interoperabilità, di Digital Identity (ID) e di firma elettronica, tutti strumenti molto utili ma ancora da sviluppare. In Europa c’è un’idea di ID diversa per ogni Paese membro, quindi con diversi servizi di identificazione e verifica dei dati personali, con standard molto diversi proprio a livello di cross-bording. Gli standard, inoltre, sono strumenti molto complessi, caratterizzati da scelte tecnologiche altrettanto complesse che poi devono essere messe in condizione di cooperare. Le esigenze del mercato e delle istituzioni possono essere molto divergenti e la necessità di trovare una nuova convergenze di intenti chiede urgentemente un ulteriore tavolo di coordinamento finalizzato alla ricerca di una nuova governance”.

Sulla stessa lunghezza d’onda si è inserito Danilo Bruschi dell’Università di Milano: “…Quale sistema è in grado oggi di gestire decine di milioni di schede dati tutte nello stesso tempo e nelle massime condizioni di sicurezza ipotizzabili? Come si vede si pone subito un problema di scalabilità tecnologica. A questo poi va aggiunto il problema di cui si parlava prima, cioè della tenuta temporale delle specifiche di sicurezza dei sistemi di gestione elettronica delle carte ID, perché per quanto robusti gli algoritmi di difesa siano, questi restano sempre suscettibili a decriptazione periodica. Cosa fare allora? Sicuramente servono molta ricerca e finanziamenti adeguati. In Italia le cose non vanno certo bene, basta considerare che ad oggi la sicurezza informatica non figura neanche tra i primi cento argomenti di interesse per il CNR”.

Di sicurezza informatica e di attività di prevenzione e repressione del crimine digitale ha parlato Stefano Zireddu della Polizia Postale e delle Comunicazioni, fornendo nel suo intervento qualche dato relativo al phishing e alla sottrazione indebita di dati sensibili: “…Parlando di identità digitale si deve pensare a diverse definizioni possibili: anagrafica, giuridica, di Polizia e digitale. Un livello quest’ultimo che necessita di particolare attenzione nella conservazione dei dati e nel loro rilascio, sia a livello di utenti che di macchine utilizzate. Molto più semplice sarebbe la definizione di un unico IP utente, ma al momento ne siamo lontani. Tra le emergenze sicuramente abbiamo l’attività di phishing, con più di 30.000 siti denunciati nel 2007, di social engineering e le truffe via posta elettronica, uno dei mezzi più utilizzati in assoluto per frodare gli utenti della rete”. In rappresentanza dei consumatori e quindi degli utenti finali della rete, le persone che poi rimangono vittime delle attività criminali del web, ha parlato Mauro Vergari dell’Adiconsum: “…Sicuramente l’utente della rete, il cittadino e la persona che siede al suo pc devono partecipare e lasciarsi coinvolgere maggiormente da una cultura del digitale e dell’informazione, che permetta di prevenire le attività illecite limitandone i danni. In molti casi, infatti, sono gli utenti stessi a rilasciare le informazioni sensibili in rete, finendo così vittime dei criminali. È ovvio, comunque, che una governance nuova del settore sia auspicabile, assieme a un parco strumenti più incisivo nella lotta alla criminalità digitale e che veda finalmente la Pubblica Amministrazione protagonista del nostro tempo”.

A conclusione del seminario Frullone ha chiamato il direttore dell’ISCOM Rita Forsi, che ha mostrato le attività dell’Istituto nel campo delle biometrie e della certificazione di sicurezza informatica: “…La certificazione informatica è uno degli obiettivi più importanti per l’ISCOM. Un progetto di ricerca, a riguardo, è quello che vede coinvolto l’OCSI, organismo interno all’ISCOM che svolge certificazione di sicurezza informatica di sistemi e prodotti informatici commerciali, operando anche a livello extraterritoriale. Poi abbiamo un centro di valutazione dei sistemi ICT che è il Ce.Va e quindi un nuovo progetto relativo ai dati biometrici che attualmente stiamo portando avanti con il ComLab dell’Università degli studi di Roma Tre. In questo caso si è data particolare attenzione al trattamento dei dati relativi all’iride e alle impronte digitali, finalizzando i lavori alla creazione di un grande database sintetico. I risultati serviranno inoltre a dare il via a progetti di alta formazione dei dipendenti e dei dirigenti amministrativi, per diffondere e accrescere la cultura della sicurezza informatica, anche all’interno delle Pubbliche Amministrazioni. Il ruolo del legislatore sarà fondamentale in tal senso, ma molto dipende anche dalla capacità di sfruttare le sinergie offerte dagli altri attori sul campo, coinvolgendoli in una governance plurale e che sappia guardare al futuro e non solo al presente”.

Flavio Fabbri

giovedì 6 novembre 2008

L'Ebook dei primi 10 seminari della FUB


Cliccando sul titolo e sulla foto della copertina, potete scaricare il libro interattivo che raccoglie i documenti multimediali dei primi dieci seminari, organizzati dalla Fondazione Bordoni. E' uno strumento favoloso per chi vuol comprendere, con maggiore conoscenza, il mondo delle tecnologie. Partecipando a tutti i seminari, in alcuni anche come relatore (colgo l'occasione per ringraziare gli organizzatori, in special modo il direttore della FUB, il Prof. Antonio Sassano, che hanno fatto la scelta di dare voce anche ai rappresentanti dei consumatori), posso esprimere un giudizio altamente positivo in merito ai temi trattati e allo sforzo fatto per rendere semplici, argomenti molto complessi. Vi invito quindi ad utilizzare questo ebook perché è veramente un regalo prezioso.

mercoledì 5 novembre 2008

TV IN SARDEGNA

Pubblico questo articolo apparso su un sito che fa una perfetta sintesi di quanto è accaduto durante lo switch off in Sardegna, comprese alcune mie dichiarazioni:

Sardegna in digitale. Lo switch off si è concluso

03/11/2008
Si è conclusa la fase ufficiale di passaggio al digitale terrestre. La Sardegna è ufficialmente la prima regione ad essersi convertita in toto al nuovo sistema. Ma non sono mancate le critiche.

Oltre 1 milione 600 mila persone, più di 640 mila famiglie, dal 31 di ottobre (data ufficiale) sono entrate definitivamente nell'ambiente televisivo digitale: è il risultato della conversione della tv dall'analogico al digitale terrestre in Sardegna.
"Si tratta della più vasta regione digitale dell'intera Europa - ha commentato Andrea Ambrogetti, presidente DGTVi (associazione che riunisce Rai, Mediaset, Telecom Italia Media, Dfree, e le televisioni locali di FRT ed Aeranti Corallo) - che conferma il primato italiano nell'avanzata verso il passaggio al digitale terrestre che si concluderà nel nostro Paese, come in tutta Europa, nel 2012."
Medesima soddisfazione esprime lo stesso sottosegretario alle Comunicazioni Paolo Romani che ribadisce come "Per la prima volta in Europa una regione così importante è completamente digitalizzata. Un risultato straordinario ottenuto grazie all'apporto di tutti gli attori di questa rivoluzione: i broadcaster, i produttori e distributori di decoder per il digitale terrestre, gli installatori di antenne, le associazioni di volontariato che hanno accompagnato questa transizione, le associazioni di consumatori. E' stato un processo di sintesi e condivisione che ha portato a raggiungere, in un percorso molto complicato, un obiettivo incredibile".
Il passaggio definitivo alla nuova tecnologia è avvenuto proprio alle 9,30 del mattino del 31 ottobre, momento in cui è stato spento il segnale analogico di Italia 1 nell’ultimo paese, Ozieri, dove ancora si trasmetteva in analogico.

"E' stato un successo, con una transizione che si è svolta regolarmente e con pochi problemi", ha commentato il sottosegretario, che ha rivendicato il successo delle iniziative messe in campo dal ministero: il contributo per l'acquisto dei decoder (358 mila quelli erogati dal 2004 a oggi, iniziativa poi replicata dal 15 settembre con i contributi da 50 euro in vista dello switch off previsto dal 15 al 31 ottobre); la campagna di promozione su stampa e tv; il call center attivo dal lunedì al sabato per le informazioni e l'assistenza ai cittadini (circa 58 mila le chiamate nei 15 giorni dello switch off); il sito ad hoc (http://decoder.comunicazioni.it) con tutte le news utili; la sala operativa nella sede del ministero e Cagliari, per monitorare tutte le operazioni di transizione al digitale. "Un successo che ci spinge all'ottimismo per le successive fasi del passaggio al digitale in tutta Italia. Una felice esperienza che sarà replicata nelle altre aree coinvolte nel passaggio al digitale”.
Proprio sulla trasparenza e l'assistenza ai cittadini durante questa fase di passaggio sono giunte le principali critiche da parte di alcune associazioni per la difesa del consumatore.
Non è in discussione il passaggio al digitale e i vantaggi che ne possono derivare, quanto l'assistenza agli utenti in questa fase. Adiconsum dal 15 al 31 ottobre aveva aperto uno sportello online per i consumatori coinvolti nello switch-off. Leggendo i molti interventi si comprende come il passaggio non sia stato proprio privo di criticità. Pur non essendo un dato statistico, i commenti dei consumatori sembrano denotare una certa confusione su taluni aspetti e un'impreparazione al passaggio.
Il call center è stato preso d'assalto,come ricorda lo stesso Ministero, ma molti cittadini - lamenta Adiconsum - non sono riusciti in tempi brevi e nel momento del bisogno a recuperare tramite questo strumento le informazioni necessarie. Chiuso nei giorni di festa e dopo le 20, secondo l'associazione, ha fornito un servizio non del tutto adeguato alle necessità. Poca preparazione anche di quella parte di popolazione che più difficilmente di altra si poteva velocemente districare tra decoder, contributi, sintonizzazione, canali a pagamento, ecc.
Come dichiarato da Mauro Vergari, responsabile del settore media digitali e Ict di Adiconsum, a Il Sole 24 Ore: «Noi eravamo disposti a mettere il nostro personale nei negozi di elettronica e negli uffici postali – continua Vergari - in modo da svolgere attività informativa con le persone più in difficoltà tra gli acquirenti, come gli anziani e i meno abbienti. Ma la nostra proposta è caduta nel vuoto e la Sardegna per sintonizzarsi nell'era digitale ha dovuto contare un po' sul fai da te. Lo switch off andava fatto pensando a tutta la popolazione. Se anche una parte, per quanto piccola, non riesce ad adattarsi, - conclude il responsabile dell'associazione - lo Stato la deve tutelare».
Per il Ministero invece l'esperienza positiva della Sardegna conferma i vantaggi del passaggio al digitale terrestre per gli utenti: tutti i cittadini sardi in questi 15 giorni sono passati da un'offerta televisiva analogica basata su 26 canali (10 nazionali e 16 locali) ad una nuova offerta digitale gratuita e accessibile a tutti composta da ben 59 canali (29 nazionali e 30 locali). Oltre a moltiplicare l'offerta, il passaggio al digitale, ha spiegato ancora Romani, crea anche lo spazio per l'ingresso di nuovi operatori nel mercato: la pianificazione delle frequenze realizzata in Sardegna grazie all'accordo tra Autorità per le garanzie nelle Comunicazioni, ministero e operatori ha consentito ''di individuare un dividendo digitale di due frequenze, nonostante alcuni problemi a livello di coordinamento internazionale. Lo stesso - conclude il sottosegretario - accadrà nelle altre regioni: anzi, in Val d'Aosta ci aspettiamo un dividendo maggiore''.
Il sottosegretario ha, quindi, confermato il calendario già messo a punto a settembre che prevede la conclusione del piano nel secondo semestre 2012, con la digitalizzazione di Sicilia e Calabria, anche se al 2010 "il 70% degli italiani potrà già usufruire della nuova televisione". Le prossime tappe coinvolgeranno la Valle d'Aosta che entro giugno 2009 sarà digitalizzata, mentre nella seconda metà del prossimo anno toccherà ad aree più grandi del Paese, come il Lazio, la Campania, il Trentino alto Adige e la parte occidentale del Piemonte.
EP dal sito www.i-dome.com