Questo blog vuole offrire uno spazio di approfondimento, discussione, riflessione, su molte delle problematiche affrontate durante il corso e per introdurne delle altre. Uno spazio didattico quindi ma non solo. Il titolo del blog richiama la necessità che internet sia un luogo-non luogo destinato a tutti, che tutti possano accedere alle rete, che tutti abbiano il diritto alla conoscenza e al sapere e a partecipare all'intelligenza collettiva che internet realizza. L'intervento giuridico deve essere ridotto al minino, la legge statale deve intervenire solo per prevenire e punire la commissione di reati. La vera regola che vige sulla rete è la capacità di autonomia, il senso di responsabilità, di educazione e di rispetto delle regole di netiquette.


domenica 21 dicembre 2008

Espulso dal Web chi ruba canzoni

Le maggiori case discografiche americane hanno deciso di cambiare strategia nella lotta ai furti di musica sul web. E’ finita l’epoca delle cause raffica agli scaricatori illegali, inefficaci a sradicare il fenomeno. Via libera, al loro posto, a richiami e «sanzioni» che potranno arrivare fino all’oscuramento di Internet per gli irriducibili. Per essere più efficace nella repressione futura, la associazione di categoria Riaa (Recording Industry Association of America) che rappresenta le maggiori sigle, punterà a coinvolgere le società che forniscono le connessioni alla rete, gli Internet provider. Colloqui con alcuni di loro, non nominati nell’inchiesta del Wall Street Journal che ha anticipato la notizia del nuovo trend, avrebbero già portato alla definizione di una procedura operativa che fa leva sulla persuasione dolce anziché sul ricorso alla carta bollata.

La prima mossa sarà l’invio di una e-mail di avvertimento al provider, quando emerge che un suo cliente ha messo a disposizione file per essere scaricate illegalmente. A seconda delle intese prese dalle case produttrici di contenuti con i singoli provider, questi ultimi dovranno o inoltrare la lettera di avviso ricevuta al proprio cliente, o avvertirlo direttamente che sta scaricando in modo illecito e chiedergli di non farlo più. Seguiranno un secondo e un terzo avvertimento. A questo punto, però, il richiamo scritto sarà accompagnato da un freno alla velocità della connessione ad Internet, riducendo la banda. E se insisterà ad essere sordo all’invito l’incallito scaricatore illegale verrà privato della connessione tout court.

Finora tra l’Associazione e i provider sono stati raggiunti accordi di principio, non ancora a livello del dettaglio operativo. Ma poiché negli ultimi anni anche il modello di business dei fornitori di linee di accesso è in evoluzione, con questi ultimi che stanno cominciando a diventare essi stessi produttori di contenuti da vendere, è sicuro che il clima è diventato più favorevole ad alleanze tra Riaa e provider rispetto al passato. Dal 2003, sono stati 35 mila gli utenti portati in tribunale per aver scaricato canzoni senza pagare i diritti. Difensori dell’«Internet aperto e gratuito», ma anche analisti indipendenti del settore, avevano sempre sostenuto che il pugno duro aveva ottenuto molto poco nel contrastare il fenomeno.

Oltretutto, qualche passo falso da parte degli studi legali delle case discografiche ha contribuito a sminuire la causa della difesa della legalità di mercato: come quando la citazione arrivò a povere madri single, o a un morto, o a una ragazzina di 13 anni. Le case musicali hanno difeso l’offensiva giudiziaria del passato, argomentando che il fenomeno sarebbe ora ancora più grave. Citando alcuni dati la Riaa ha rilevato che la percentuale di file illegali è costante al 19%, da diversi anni. In parallelo, le vendite di album sono in continuo calo: contro i 656 milioni di album venduti nel 2003, il numero nel 2007 è calato a 500 milioni di cd e di album digitali, più 844 milioni di pezzi singoli scaricati e pagati, una quota che è lontanissima dal compensare la riduzione di fatturato nei negozi.

Da qualche mese, nella trattativa tra Riaa e provider sta svolgendo un ruolo di broker il procuratore generale dello Stato di New York, Andrew Cuomo, interessato alla repressione della pirateria e convinto che la strada extragiudiziale sia la più efficace. «Volevamo finire le continue liti nelle corti di giustizia. Non sono utili», ha spiegato il suo capo staff Steven Cohen. L’ufficio del procuratore sta lavorando ad un’intesa più ampia con le società di accesso al web, mirando a coinvolgerle in un ampio piano di prevenzione.

La Riaa con la nuova strategia degli avvisi bonari punta all’obiettivo di raggiungere un numero ancora maggiore di «irregolari». «E’ importante che le persone sappiano che le loro azioni non sono anonime» dice il presidente della Riaa Mitch Bainwol. Anche se resta dell’idea che la prima ondata di cause abbia avuto il pregio di sollevare con grande visibilità il problema dell’illegalità diffusa nell’opinione pubblica generale, Bainwol pensa che «negli ultimi cinque anni il mercato sia cambiato» e che nuovi metodi repressivi vadano sperimentati.

martedì 9 dicembre 2008

Cybercrimine tra allarme e bluff

L’Herald Tribune riporta il responso: «La sicurezza di internet si è rotta e nessuno sa come aggiustarla». Le software house che si occupano di produzione informatica, infatti, denunciano il collasso imminente: il terrorismo digitale nella vita quotidiana è sempre più forte e veloce e nessuno è in grado di arginarlo. L’azienda anti-virus McAfee, con due settimane di ritardo rispetto alla concorrente Symantec, definisce senza mezzi termini i rischi connessi al collasso di Internet: «Un attacco informatico di grandi dimensioni potrebbe avere conseguenze economiche peggiori di quelle dell’11 settembre». I pirati informatici, attualmente, sembrano essere più veloci dei tecnici e si adattano molto rapidamente ai cambiamenti della rete ufficiale. In ottobre un gruppo di ricerche indipendenti dell’Atlanta ha denunciato il numero sempre crescente di computer infettati quotidianamente: attualmente risultano “malati” il 15% dei computer connessi (rispetto al 10% degli infetti nel 2007). Ma da dove arrivano i virus? Secondo le ricerche del Panda Labs oltre 10 milioni di terminali sarebbero impegnati ogni giorno a distribuire virus e spam nella rete mentre gli anti-virus ufficiali finora in vendita non sarebbero ancora in grado di eliminare la maggior parte delle “infezioni”: Stuart Stainiford, direttore dell’istituto di ricerca FireEye per la sicurezza di Silcon Valley, ha presentato i risultati di una inquietante ricerca che ha provato l’inefficienza dei sistemi di protezione attuali. Nel test 36 anti-virus in commercio sono stati sottoposti ad un bombardamento di “malware” e sono riusciti ad individuarne e a corrergene meno della metà. Siamo tutti in pericolo Chi sarà davvero colpito da questi problemi virtuali? Non si tratta di problemi riservati ai grandi tecnici della rete, le contaminazioni colpiscono infatti la vita quotidiana degli internauti e sembra che attualmente proprio le persone “comuni” che utilizzano internet per piccole spese e pratiche quotidiane, siano le prede favorite dagli hacker. In periodi recenti numerosi virus sono stati creati ad hoc per entrare in possesso di dati personali presenti all’interno degli ordinatori. I più ricercati, ovviamente, numeri di conto e di carte di credito ma anche le identità sono rivendibili facilmente. Le identità? Si. I pirati informatici risalgono ai dati personali degli utenti sia attraverso i computer sia attraverso un controllo incrociato con i social network –primo ma non unico il popolarissimo Facebook- e clonano le identità altrui. Anche il governo statunitense si è ormai accorto della rilevanza del “problema pirateria” e il presidente uscente George W. Bush ha sottoscritto un programma di protezione informatico governativo che costerà circa 30 miliardi di dollari nei prossimi sette anni. D’altronde, come hanno sottolineato dal dipartimento informatico della casa bianca, la sicurezza del passaggio delle informazioni in uno stato è importante quanto la sicurezza del passaggio di acqua o gas. Anche se questa decisione non migliorerà la situazione dei miliardi di persone che utilizzano la rete ogni giorno per lavoro o per diletto si tratta, comunque, di una presa di coscienza del problema. Ma anche di un segnale della rilevanza del pericolo. Virus di ieri, virus di oggi «I nuovi virus sono scritti in maniera estremamente professionale», avverte Bruce Schneier, direttore dell’ufficio sicurezza di British Telecom «perché i pirati informatici sono ormai organizzati internazionalmente e sono ben coscienti che con questo "businnes" è ancora possibile fare i soldi veri (la recente ricerca del gruppo STAR ha denunciato un giro d’affari pari a circa 276 milioni di dollari annui, ndr)». I virus, però non arrivano solo dalla rete avverte David Marcus direttore della ricerca dei McAfee Labs. «Accanto allo sviluppo quasi quotidiano di nuovi "trojan" –i virus inventati per rubare le password dai computer personali- si stano diffondendo oggi nuovi fronti di attacco come ad esempio le chiavi Usb infette». Viene quasi da sorridere oggi ricordandosi dell’impresa solitaria di Robert Tappan Morris emerito professore del M.I.T. con un passato “birbante”. Morris, ai tempi ventiquattrenne neolaureato, creò infatti il primo virus attorno al 1988: il raggio d’azione era limitato e colpì circa 60mila computer nei soli Stati Uniti, ma segnò l’inizio di una nuova era. Crisi e cybercrime In periodo di crisi economica, denunciano gli esperti, il rinnovamento della sicurezza informatica sarà uno dei maggiori capitoli di spesa. «I moderni sistemi informatici -afferma infatti Eugene Spafford, ricercatore scientifico della Purdue University -probabilmente sono più obsoleti di quelli di 20 anni fa perché tutti i soldi che sono stati investiti nella sicurezza in passato oggi, alla luce di questi attacchi sempre più preoccupanti, dovranno essere reinvestiti completamente». Un altro problema connesso alla grigia congiuntura economica si potrebbe nascondere dietro alla ricerca di una nuovo lavoro, che la maggior parte dei disoccupati farà appunto on-line, per la gioia dei cybercriminali. Exaflood o ZettafloodLe battaglie virtuali non sono, però, gli unici problemi con cui sono tenuti a confrontarsi giornalmente gli internauti di tutto il mondo. Il sovraffollamento della rete è un altro rischio con cui ci si deve misurare e per definirlo è stato addirittura coniato un neologismo inglese: “exaflood”. Il termine, utilizzato per la prima volta da Brett Swanson in un editoriale del Wall Street Journal nel gennaio 2007, si riferisce -letteralmente- ad un’inondazione (flood) di immense quantità di dati (misurati in exabytes, considerando che un singolo exabyte è pari a circa cinquantamila anni in DVD video) . L’incremento di dati sta infatti crescendo in modo esponenziale mentre –pare- che la capacità di contenimento di internet sia limitata. Bisogna però ricordare che i grandi allarmisti minacciano un collasso della rete praticamente dalla sua nascita. Un caso eclatante fu quello di Bob Metcalfe, guru di internet e fondatore di 3Com, che nel 1995 annunciò la fine della rete entro il 1996. Le analisi di Metcalfe e la sua conoscenza del mezzo e dei rischi erano talmente accurate da portare l’autore della dichiarazione a promettere che avrebbe mangiato –in senso letterale- il pezzo di carta sul quale riportava la profezia se questa non si fosse avverata. Cosa che puntualmente fece nel 1997 quando, resosi conto dell’errore, inzuppò il foglio e lo mangiò davanti agli occhi esterrefatti del suo consiglio d’amministrazione. Effettivamente il traffico virtuale sta crescendo a dismisura e il solo sito YouTube ha trasmesso nel 2007 una mole di informazioni molto maggiore rispetto a quella trasmessa nel 2000 dall’intera Internet. John Champbers, amministore delegato del colosso informatico Cisco, ha predetto una incremento annuale del traffico pari al 200-300% per i prossimi cinque anni. «Le statistiche sul traffico virtuale sono paranoiche» è il secco commento di Andrew Odlyzko, ricercatore dell’Università del Minnesota specializzato nello studio dei diversi trend di traffico nella rete, che non si preoccupa del sovraffollamento ricordando alcuni episodi analoghi degli anni passati. Oltretutto, si sussurra tra complottasti e non, questa necessità di rinnovamento della tecnologia modificata per fare fronte all’inondazione informatica, avrà come immediata conseguenza quella di permettere alle aziende specializzate di creare nuovi supporti informatici dei quali –ovviamente- tutti dovranno munirsi per scongiurare il collasso virtuale. Quindi disastri annunciati e nuovi acquisti informatici imminenti? Non secondo Odlyzko che conclude anticipando nuovi esperimenti da effettuarsi, in tempo breve, proprio per ovviare agli eventuali problemi connessi al sovraffollamento. Meno roseo, invece, il futuro secondo Swanson che non teme più solo l’inondazione di exabyte ma è già proiettato oltre. Nell’Internet tempio della velocità, infatti, l’exaflood è ormai obsoleto e il ricercatore americano ha già coniato il termine “zettaflood” utilizzandolo per una presentazione nella quale prevedeva il collasso della rete entro il 2015. E se non fosse vero nemmeno questa volta? Sorride il Dante della terminologia internet e confessa sereno: «Seppure fosse non ho intenzione di mangiarmi il mio PowerPoint».

di Eleonora Ciais
www.lastampa.it

giovedì 4 dicembre 2008

Presentazione del libro "Il cielo stellato sopra di me ...". Temi di etica pubblica.

Venerdì 12 Dicembre 2008 ore 9,30
Sala delle Conferenze – Facoltà di Scienze Politiche
Campus Coste S. Agostino – 64100 Teramo

Presentazione del volume

Fiammetta Ricci (a cura di),
“Il cielo stellato sopra di me...”.Temi di etica pubblica.
Aracne, Roma, 2007.

Ore 9.30 Apertura dei lavori

Saluti di indirizzo
A. Pepe: Preside della Facoltà di Scienze Politiche
F. Bonini: Direttore del Dipartimento di Storia e Critica della Politica

10,00 Presentazione

G.M. Chiodi (Università “Federico II”-Napoli))

Interventi:

T. Serra (Università “La Sapienza”-Roma)
S. Armellini (Università di Teramo)
G. Sorgi (Università di Teramo)

11,30 Tavola rotonda con gli autori:

Anna Di Giandomenico, Graziella Di Salvatore, Gianluigi Fioriglio, Giovanni Franchi, Enrico Graziani, Stefano Pratesi, Roberto Rassu, Fiammetta Ricci, Mario Sirimarco.

Presiede: Paolo Savarese

venerdì 28 novembre 2008

Creative Commons e SIAE

Immaginatevi un dialogo fra lo scrittore filosofo Luciano De Crescenzo e Jerry Yang, il fondatore di Yahoo! Improbabile dite? Sarà. Eppure quello andato in scena stamane a Milano fra Joi Ito, numero uno del movimento Creative Commons per la riforma del diritto d'autore, e Giorgio Assumma, presidente Siae, Società italiana autori e editori, ci assomigliava non poco. Due universi paralleli a confronto, sempre sull'orlo di incontrarsi e andare d'accordo, per poi allontanarsi improvvisante marcando di volta in volte le differenze che li separano.

Un giovane ricercatore americano di origini asiatiche da un lato, e un esperto avvocato degno dei tempi che furono dall'altro. Il presente e il passato, insomma, uno di fronte all'altro moderati da Massimo Micucci, presidente Retionline che ha organizzato l'evento. E al centro del contendere il diritto d'autore di un'opera d'ingegno - che sia un libro o un disco - e le relative libertà di deciderne il destino: se renderla ad esempio pubblica gratuitamente o no, e soprattutto come garantire l'eventuale retribuzione dovuta agli autori dell'opera.

Un problema dibattuto da anni e ben conosciuto da coloro che navigano in Internet, dove ad esempio è possibile scaricare file audio e video di artisti noti e meno noti, spesso senza nemmeno pagare quanto per legge è dovuto all'autore. E intaccando - denunciano case discografiche e cinematografiche in primis - i proventi destinati alle pur floride casse dell'industria dell'intrattenimento.

Un vero e proprio braccio di ferro, insomma, quello fra gli utenti e gli artisti emergenti da un lato, e la grande industria della musica, del cinema, e in molti casi dell'editoria dall'altro. In mezzo, almeno per quanto riguarda l'Italia, la tanto vituperata Siae, ovvero l'ente pubblico economico a base associativa, preposto alla protezione e all'esercizio dei diritti d'autore, presente in forze all'incontro dal titolo "Copyright e Creative Commons. Diritti e poteri sul web".

L'arrivo di Creative Commons. Già, perché da quando nel 2001, il professor Lawrence Lessig, ordinario della facoltà di Giurisprudenza di Stanford, propose di affrontare il problema del copyright concedendo all'autore il potere di decidere in completa autonomia il destino della propria opera, da quel momento, la cosiddetta licenza Creative Commons, altrimenti conosciuta come CC, ne ha fatta di strada e le cose sono cambiate.

Solo in Italia, ad esempio, Creative Commons è stato utilizzato recentemente da Feltrinelli, da La Stampa Alternativa e da La Stampa di Torino per vari inserti culturali, solo per citare alcuni esempi. Si stimano all'incirca 5 milioni di contenuti, (per lo più pagine html, ma anche video e libri) con licenza Creative Commons. Mentre nel mondo, sono almeno 200 milioni i contenuti protetti con questo marchio.

Concretamente, come si legge sul sito dell'organizzazione, le licenze Creative Commons offrono sei diverse articolazioni dei diritti d'autore per artisti, giornalisti, docenti, istituzioni e, in genere, creatori. Il detentore dei diritti può non autorizzare a priori usi prevalentemente commerciali dell'opera (opzione Non commerciale, acronimo inglese: NC) o la creazione di opere derivate (Non opere derivate, acronimo: ND); e se sono possibili opere derivate, può imporre l'obbligo di rilasciarle con la stessa licenza dell'opera originaria (Condividi allo stesso modo, acronimo: SA, da "Share-Alike"). Le combinazioni di queste scelte generano le sei licenze CC, disponibili anche in versione italiana.

Si tratta in sostanza di uno strumento tecnico e giuridico che permette all'autore di un qualsiasi contenuto (ad esempio libri, musica, video) di scegliere liberamente quali diritti di proprietà intellettuale riservarsi e quali cedere per l'utilizzo da parte di terzi. Una soluzione alternativa, cioè, al dispositivo giuridico di "Tutti i diritti riservati". E che con la sua flessibilità permette agli utenti del Web di fruire dei contenuti disponibili in rete, modificarli e migliorarli.

Quali diritti sul Web? E così, in occasione dell'incontro, tocca allo stesso Joi Ito portare il primo affondo. "Io sono un fotografo amatoriale", ha detto, "e ovviamente ho pubblicato le mie foto online proteggendole con una licenza CC. Con sorpresa devo ammettere che il cento per cento dei siti o blog che usano le mie foto riportano il nome dell'autore così come richiesto dalla licenza, mentre mai nessun giornale o editore che utilizza le mie foto ha scritto da chi erano state scattate". In altre parole - spiega l'amministratore di Creative Commons - il diritto d'autore, così come è adesso, garantisce essenzialmente le grandi realtà, ma non serve a chi non si può permettere avvocati o processi, o semplicemente al normale cittadino della rete che vorrebbe difendere la sua opera di ingegno.

Pronta la risposta della Società degli autori e editori: "La regole della Siae non le fanno gli Ufo", ha tenuto a precisare il vicepresidente della società autori editori, Lorenzo Ferrero, "le decidono gli autori e gli editori". Come a dire: attenzione, non ci stiamo a essere il capro espiatorio solo perché ci chiamiamo Siae. E il portavoce dell'ente, Sapo Matteucci, rincara la dose: "Attenzione: internet non è questo paradiso in cui tutto è gratis. Vi dicono che potete scaricare quello che volete, ma in realtà lo pagate, solo che i soldi arrivano agli operatori delle telecomunicazioni che vi vendono la connessione e non agli autori e agli editori". E Virginia Filippi, consulente Siae, aggiunge: "E' vero che internet ha ampliato il mercato, e quindi le possibilità di guadagno, ma è proprio la difficoltà di ricondurre questo valore extra al diritto d'autore che preoccupa. Di fatto le entrate per gli autori quest'anno si sono ridotte del 30 per cento".

Un dato in controtendenza, almeno a sentire quanto ha dichiarato proprio oggi la Atlantic records, del gruppo Time Warner, nota per aver pubblicato album e cd di famosi artisti come Ray Charles, John Coltrane e i Led Zeppelin. Secondo la società il 51% del proprio fatturato del 2008, infatti, proviene dall'online, mentre il restante attraverso i supporti fisici tradizionali come cd, dvd.

Numeri alla mano. D'altra parte, secondo una ricerca del luglio 2008 presentata in occasione del convegno, il 53 % pensa che scaricare da internet danneggi molto o abbastanza l'autore, mentre il restante 47 % poco o per nulla. Campione spaccato a metà, quindi, di cui però il 60 %, chiede la fruizione gratuita delle opere, contro un 40% che preferisce che le cose rimangano come sono ora. Mentre il 45% dichiara di aver fatto uso di software scaricati gratuitamente da internet, e il 32% di aver scambiato frequentemente file musicali, video e/o immagini.

L'esempio olandese e danese. "La licenza Creative Commons non vale per tutte le situazioni" ammette Ito "bisogna vedere caso per caso. E' chiara però è la differenza fra una normale gestione del diritto d'autore e quello che proponiamo. E cioè ad esempio, per utilizzare un'opera, secondo il modello attuale, genericamente bisogna chiedere preventivamente il permesso, mentre con la licenza CC tale permesso è definito a monte dall'autore".

Una differenza non da poco, tanto che in Olanda e in Danimarca le società di autori e editori, rispettivamente Buma/Stemra e Koda, hanno adottato in via sperimentale le licenze Creative Commons come alternativa possibile per gli autori di quei paesi. Cosa che in Italia, fra riunioni, gruppo di studio e promesse, non è ancora stato fatto, e che lo stesso Juan Carlos De Martin, a capo della sezione italiana di Creative Commons, presente al convegno, ha chiesto nuovamente di prendere in considerazione. A rispondere, il solito, affabile, Assumma: vediamoci, parliamone, entrate nei gruppi di analisi della Siae. Come a dire: dobbiamo cambiare, ma ci vuole tempo e volontà politica. Chi ha orecchie per intendere, intenda.

www.repubblica.it

giovedì 20 novembre 2008

Una biblioteca da 2 milioni di libri

Microsoft si ispirava alla biblioteca di Alessandria, ma fallì. L'Unione europea si rifà invece alla "Biblioteca di Babele" di Borges. E lancia la sfida ai grandi dell'informatica, Google in testa: mettere insieme il sapere custodito dalle biblioteche di tutta Europa nel pieno rispetto dei diritti d'autore e sfruttando le potenzialità di Internet. Nasce così www.Europeana.eu, la biblioteca online di Bruxelles che da domani sarà liberamente accessibile a studenti, ricercatori, professori e semplici amanti di letteratura e arte. Perché Europeana non conterrà solo libri, ma anche musica e quadri. Una vera e propria sfida al mastondontico progetto di Google di raccogliere tutto il sapere dell'umanità.

Si comincia, dunque, domani con circa due milioni di opere, tra cui la Divina Commedia, i manoscritti e le registrazioni di Beethoven, Mozart, i quadri di Vermeer, la Magna Carta e le immagini della caduta del muro di Berlino. Ma anche opere altrimenti introvabili, perché custodite in diversi musei del Vecchio Contiente. Come il Codice Sinaitico, antichissima traduzione in greco dell'Antico e del Nuovo Testamento oggi sparpagliato in quattro diverse bilbioteche: ebbene per la prima volta sarà liberamente consultabile nella sua versione integrale.

Grazie a Internet e alle tecniche di digitalizzazione, "uno studente italiano potrà consultare i lavori della British Library senza andare a Londra", ha detto a Repubblica Viviane Reding, commissario Ue responsabile del progetto. "E' un sogno antico che diventa reale - ha aggiunto - chiunque può avere libero accesso alla nostra cultura, l'eredità che accomuna ogni europeo".

"Se un taxista di Roma - spiega Reding - sente casualmente in radio un brano di Chopin può andare su Europeana e capire chi era l'autore, leggere le sue lettere d'amore, vedere la casa dove viveva quando ha composto l'opera e vedere gli spartiti originali". Così come uno studente, o un esperto, può guardare le mappe dei Conquistadores o scoprire le diverse espressioni dell'art nouveau nelle varie città d'Europa.

L'obiettivo è di arrivare a 10 milioni di opere entro il 2010. Significherebbe superare Google Book Search, lanciato nel 2004, che oggi conta circa 7 milioni di volumi più una vasta serie di cause per la violazione dei diritti d'autore. Ma la Ue vorrebbe aggirare l'ostacolo ottenendo il copyright dagli enti e dagli istituti europei che lo hanno già acquistato per sé. E il compito più arduo sarà proprio la digitalizzazione dei testi, un'impresa che portò la Microsoft ad abbandonare il suo progetto di biblioteca alessandrina in formato Pdf lanciato nel 2006. In un anno e mezzo il colosso di Bill Gates aveva importato in formato elettronico solo 750.000 volumi.

Ma la Ue non si scoraggia: "Abbiamo dei progetti pilota per accelerare la copia in digitale e un nuovo traduttore automatico", spiega la Reding. Che si richiama alla Biblioteca di Babele: "Nel racconto di Borges la gente impazziva perché si trovava di fronte ad una infinità di lingue e contenuti. Noi facciamo il contrario: selezioniamo il materiale giusto, lo ordiniamo e lo corrediamo di critica e interpretazione certificata dai massimi studiosi del Continente".

Insomma, niente a che vedere con il normale caos delle ricerche su Internet e con le spiegazioni spesso date da esperti improvvisati.

sabato 8 novembre 2008

Internet e diritto d'autore: la posizione della SIAE

Gli autori, gli editori, i produttori, insomma l’intera industria dei contenuti ci è cascata dentro fino in fondo. Nella rete. Quella digitale. E non riesce a districarsene. Un intrico di tecnologie sempre più efficaci e pervasive, norme, interessi economici prevalenti, forse anche strategie di marketing e offerte legali partite in ritardo, hanno fatto sì che ormai l’intera filiera dei contenuti creativi abbia subito dagli scaricamenti illegali di opere tutelate, danni incalcolabili. Un’opinione pubblica che fa leva sulla “libertà del consumatore” di scaricare dalla rete opere protette senza corrispondere alcunché perché “la cultura deve essere libera e gratuita”, ha fatto il resto. Così oggi, per comprare una valigia on line, un biglietto aereo, un orologio…si ritiene giusto dover prima pagare, mentre per una canzone, un film, un testo letterario si sostiene di no: la merce “mercantile” va rispettata, la più “spirituale” opera dell’ingegno, no. C’è qualcosa di straordinario in questo ribaltamento di prospettiva, tant’è che qualcuno si è spinto a prospettare la formula del “sulla rete tutto (film, musica, foto ecc.) libero, salvo avvertenza contraria”. Come se su un’ automobile parcheggiata o su un cavolfiore al mercato, dovesse campeggiare la scritta “vietato appropriarsene senza pagare”, altrimenti, senza avvertenza, ognuno può prendersi ciò che vuole. Si legga, in questo senso, il bel pamphlet “La gratuità è un furto”, scritto da Denis Olivennes, Direttore del “Nouvel Observateur”, pubblicato ora in Italia da Scheiwiller.

Va da sé che il problema sta nella riproducibilità estrema, che cambia radicalmente i connotati del consumo culturale nella rete. E’ questo il confine: non etico, non giuridico, non estetico. Bensì materiale. Un confine che fa apparire naturale la sottrazione: mi approprio di tutto ciò che è immateriale perché posso farlo, in barba al lavoro di chi ha scritto, filmato, prodotto, diffuso. E se questo è l’effetto immediato, fa specie che un effetto, invece più mediato, sia quello di piegarsi acriticamente al diktat tecnologico, agitando per di più il vessillo della libera circolazione della cultura. Se fosse clonabile un’ auto, l’industria automobilistica chiuderebbe e milioni di persone perderebbero il loro lavoro, con la scusa del diritto alla mobilità.

Chiamare pirati i ragazzini che scaricano illegalmente file musicali e cinematografici da magazzini digitali sempre più vasti, non risulta certo facile. E nemmeno giusto. Il peer to peer ha creato una ricchezza d’offerta ineguagliabile, i ragazzini (ma non solo loro) scaricano per uso personale (senza lucro come fanno invece i veri pirati) assemblano e spesso trovano ciò che in catalogo non c’è più. E allora perché criminalizzarli? Le leggi attuali in tutto il mondo sono severe, prevedono multe a tre zeri e anche sanzioni penali, ma forse proprio per questo sembrano difficilmente applicabili ai singoli. Negli Stati Uniti s’è scelta la via di alcune sentenze esemplari per dare un segnale. Ma è questa la strada? Che fare? Rassegnarsi alla sottrazione continua (come se in una libreria si tollerasse il furto di libri perché si leggono o, in un negozio, di maglioni perché s’indossano)? Limitarsi a dire che la rete ha stravolto tutto e che quindi i diritti d’autore (solo quelli, mentre tutti gli altri diritti di proprietà, dai costi degli abbonamenti, ai computer, alle memorie ecc. vanno invece rispettati) così come sono attualmente, non servono più a niente, senza per altro offrire alternative concrete e praticabili? Cercare qualche soluzione, evitando di disturbare troppo i manovratori delle industria tecnologica che fanno utili a palate anche e soprattutto grazie agli scaricamenti illegali? Evitare di urtare politici sensibili al consenso di massa dei navigatori-consumatori?

Dopo un decennio di spolpamento degli autori, degli editori e dell’industria dei contenuti, qualche proposta, non per distruggere ma per governare il fenomeno del peer to peer si va configurando, come è emerso dai lavori delle Stati Generali del Cinema a Roma, che hanno riunito autori, produttori, internet provider, specialisti di sicurezza informatica, associazioni di consumatori, ingegneri e esperti in diritto d’autore.

Nel mondo si prospettano a breve (Francia, Gran Bretagna) o sono già operative (Olanda, Nuova Zelanda, Australia, Giappone) leggi, accordi o codici di comportamento che in sostanza si fondano sulla cooperazione tra autori, industria dei contenuti e internet provider, coloro cioè che incassano dal “cittadino-consumatore” le quote per gli abbonamenti con cui si viene connessi alla rete. Il sistema, in sintesi, prevede che, direttamente o indirettamente (tramite Autorità terze) verrà inviato per due volte, a chi scarica illegalmente opere tutelate, un avviso-richiamo. Alla terza infrazione si potrà procedere al taglio del servizio. Si tratta d’una specie di patente a punti, che tende a informare e responsabilizzare l’utente tramite una serie d’avvisi. I rappresentanti dei produttori si sono detti favorevoli a questa via. Gli internet provider si sono invece dichiarati d’accordo con l’invio degli avvisi, ma non con gli eventuali tagli del servizio. Dello stesso parere, il Professor Juan Carlos De Martin del Politecnico di Torino, storico sostenitore della flessibilità dei diritti d’autore per l’on-line (secondo il sistema dei cosiddetti Creative Commons) che ritiene eccessivamente sanzionatorio e non ben normato il taglio d’un servizio fondamentale per il cittadino qual è internet, concordando sulle censure dichiarate in questo senso dal Parlamento Europeo. Lo stesso De Martin, si è detto invece, favorevole a un sistema di licenza legale che a fronte di un pagamento forfettario da parte di chi incassa gli abbonamenti (gli internet provider) permette gli scaricamenti di opere tutelate. Anche il rappresentante della Federazione degli Autori di Musica Italiani (raccoglie in pratica la maggioranza degli autori musicali italiani) Franco Micalizzi e lo sceneggiatore Francesco Scardamaglia a nome dei Cento autori, si sono dichiarati d’accordo con questa ultima ipotesi. Insomma libertari della rete e detentori dei diritti si sono trovati, per una volta, insieme.

Per la SIAE, è di estrema importanza che si cominci concretamente a parlare delle soluzioni in campo, perché i lamenti finora non sono serviti a molto e “il contatore” delle connessioni a internet continua a scattare, mentre il consumatore continua a pagare le connessioni, con le quali può scaricare musiche, film, canzoni senza corrispondere alcun diritto. A tutto vantaggio dell’industria tecnologica, non di chi ha lavorato e lavora ai contenuti. Insomma, continua la prevalenza assoluta del contenitore sui contenuti con buona pace di chi lavora proprio a questi ultimi.

di Giorgio Assumma
Presidente SIAE

mercoledì 5 novembre 2008

Internet e le elezioni americane

Sarà, probabilmente, l'ultima campagna elettorale americana dominata dalla televisione. Già in queste elezioni il web è stato più rilevante rispetto ai quotidiani nella formazione dell'opinione pubblica.

Secondo una rilevazione del Pew Research Center, molti più americani hanno navigato su internet alla ricerca di informazioni sui candidati di quanto non abbiano fatto nel 2004. Nonostante la televisione sia ancora la fonte dominante per le informazioni elettorali, la percentuale di coloro che si sono rivolti a internet per formarsi una opinione è triplicata rispetto all'ottobre 2004 (da 10% al 33%).

Se internet ha già superato i quotidiani come fonte principale rispetto alla campagna elettorale, alcuni dati fanno presagire che già dalle prossime elezioni il sorpasso potrebbe consumarsi anche nei confronti della televisione. Secondo la ricerca, infatti, nella fascia di età tra i 18 e i 29 anni gli elettori che hanno scelto internet sono il 49% rispetto al 61% che si è dedicato alla televisione e il 17% dei giornali.

Nella fascia immediatamente successiva (30-49 anni), le percentuali sono 70% televisione, 37% internet, 23% quotidiani. Negli over 45 invece televisione e quotidiani fanno la parte del leone (82% e 45%) mentre internet è presente solo con un 12%. La proiezione di queste dati sembra indicare una tendenza: tra quattro anni il web potrebbe essere il media più rilevante nella formazione dell'opinione pubblica americana.

da
www.corriere.it

martedì 28 ottobre 2008

Internet Governance Forum

Si e' conclusa ieri la prima riunione dell'Internet Governance Forum (Igf) Italia sui diritti e le regole per garantire l'accesso di tutti a una Rete aperta, libera e sicura. L'incontro, su iniziativa della Regione Sardegna (é venuto anche Renato Soru, presidente della Regione noto per la sua sensibilità al tema dato che è stato il fondatore di Tiscali) in collaborazione con Isoc Italia, ha riunito i portatori d'interesse sulla Rete a livello nazionale.
Grande assente il governo italiano: il ministro per la Pubblica Amministrazione e Innovazione Renato Brunetta ha dato buca.

Invece il presidente Giorgio Napolitano ha inviato un telegramma di auguri di buon lavoro: "La persistente assenza di regole fondamentali per Internet non si traduce necessariamente in maggiore libertà, ma può al contrario significare la prevaricazione del più forte sul più debole".

Anche la Siae e le aziende distributrici della proprietà intellettuale, dalle case discografiche alle major del cinema: un esempio per tutti? Enzo Mazza, presidente della Fimi (la federazione italiana dell'industria della musica), è stato evocato più volte - specialmente quando si è discusso del caso Pirate Bay...

Peccato perchè sarebbe stato interessante sapere che cosa ne pensa della proposta (di Nexa) di cambiare l'impianto normativo del copyright e rifondare un copyright 2.0 in cui le regole di default prevedano esattamente il contrario di quanto accade oggi: e cioè che tutte le opere dell'ingegno siano nel pubblico dominio (senza chiedere il permesso) accessibili via Internet tranne sottoporle a copyright (diritti riservati) solo per quegli autori che ne facciano richiesta.

Sul fronte dei diritti, Communia a questo proposito annuncia il Public Domain Day nel 2009 mentre Arturo Di Corinto propone di fare richiesta del dominio .pd (public domain) all'Icann per incentivare la raccolta e la facile condivisione di tutto ciò che è lecito condividere in Rete.

Presenti e attenti le Telecom, Google e Microsoft, che ha ammesso: "Tutti devono fare un passo indietro" per venire incontro ai diritti degli utenti di Internet, i cittadini globali della Rete. Microsoft, che ha il senso del mercato e per questo si sta dimostrando sempre più aperta, propone di non perseguire i downloader, ma solo gli uploader.

Sul fronte delle regole, emerge sempre più urgente il problema dei siti Internet senza data e/o non aggiornati, che non diffondono conoscenza, ma anzi: per motivi di pura sciatteria, contribuiscono alla diffusa cattiva informazione. Per non parlare della mancanza ancora di formati standard e interoperabilità di software e hardware, che non facilita l'accesso: urge che le aziende depongano le armi e capiscano la convenienza di mettersi d'accordo e rendere la vita più facile ai loro clienti, i consumatori cittadini del Web.

L' incontro, tra i primi in Europa, ha avviato ufficialmente il lavoro dell'Igf nazionale che contribuisce a quello internazionale dell'Igf promosso dalle Nazioni Unite, rappresentate da Markus Kummer, coordinatore esecutivo del segretariato Igf Onu.
Sul sito di Igf Italia promettono che saranno disponibili a breve le video registrazioni dei due giorni di lavoro e i documenti di approfondimento sull'evento: rattrista vedere che ancora contiene solo il programma del vertice...la lentezza ad aggiornare i siti è un problema, nell'era della velocità richiesta dalla rivoluzione digitale.

La giornata di oggi è stata dedicata alla discussione della Carta dei Diritti e dei doveri (Internet Bill of Rights), che raccoglie tutte queste istanze e molte di più ovviamente, fortemente sostenuta da Stefano Rodotà che la propone con tenacia da anni, ma che ha ancora molta strada da fare perchè di difficile realizzazione, e infatti non ha ancora visto la luce.

Fonte
www.lastampa.it

Approfondimenti
www.igf-italia.it

mercoledì 22 ottobre 2008

L'Italia e il digital divide ...

È IL QUADRO di Italia spaccata in due quello che emerge da un rapporto appena pubblicato da Agcom (Autorità Garante delle Comunicazioni) e curato da Between, società di consulenza del settore ICT, per quanto riguarda la banda larga. Ed è un'Italia divisa sotto tanti aspetti, che insieme ci allontanano dal resto dell'Europa Unita e che minacciano lo sviluppo economico del Paese. Il problema principale, che emerge dai dati di Between, è che gli utenti banda larga italiani sono solo 10,7 milioni (a marzo 2008). Dato che ci pone tra gli ultimi posti in Europa, per diffusione della banda larga: ormai anche la Spagna e la Slovenia ci ha superati e il Portogallo è un soffio alle spalle.

Il problema è noto, ma il rapporto lo mette in una luce nuova: per due motivi. Primo, perché si vede come la scarsa diffusione è in realtà sintomo di problemi profondi del nostro Paese, punta dell'iceberg di un problema più grosso, che è appunto quello di un Paese diviso in due. Da una parte, coloro che abitano in città medio-grandi, dove c'è tutto: la concorrenza è evoluta, le offerte sono competitive, economiche e veloci; dall'altra, i piccoli comuni, dove la banda larga, se c'è, è un piatto monotono di offerte. Altra spaccatura: tra coloro che hanno il pc (i quali spesso hanno anche la banda larga) e coloro (la maggior parte) che non ce l'hanno.

Secondo aspetto originale, nell'analisi di Between: in futuro potrebbe andare peggio, nel confronto con l'Europa, perché ci sono poche speranze che l'Italia possa fare grossi passi avanti in questi molteplici aspetti. "A meno che non ci sia uno sforzo corale del sistema" (scrive Between), cioè del governo e dei vari soggetti responsabili delle infrastrutture del paese.

In particolare, secondo Between, è la scarsa diffusione dei pc (49 per cento degli abitanti, fonte Eurostat) la causa principale dei ritardi sulla banda larga. Per diffusione della banda larga tra utenti di pc, infatti, l'Italia balza al quarto posto della classifica europea. Serve quindi aumentare l'alfabetizzazione degli italiani (come ribadito nei giorni scorsi anche da Franco Bernabe', amministratore delegato di Telecom Italia, a un convegno romano). Between assolve invece i prezzi della nostra banda larga: sono persino migliori rispetto alla media europea.

Nemmeno la scarsa diffusione dei pc sembra dipendere da motivi economici (da noi c'è una certa concorrenza sui prezzi), ma solo da fattori culturali e dal sistema scolastico. Bernabè ipotizza che molte cose cambierebbero se la Pubblica Amministrazione desse il buon esempio, adottando le nuove tecnologie per dialogare con il cittadino. L'informatica penetrerebbe così nelle vite quotidiane delle persone e crescerebbe la voglia e l'esigenza di dotarsi di un pc.

A causare i ritardi della banda larga c'è, in subordine, un altro fattore (stima Between): le infrastrutture. Sono distribuite in modo poco omogeneo nel Paese. Gli investimenti degli operatori alternativi a Telecom in infrastrutture (di "unbundling local loop") sono tutti concentrati su un 50 per cento della popolazione (nelle città più ricche), il che riduce la varietà e la convenienza delle offerte disponibili per metà degli italiani.

Forte divario anche tra città e campagna. L'Italia ha una copertura Adsl, in generale, nella media europea. molto sotto la media, invece, per copertura Adsl nelle campagne (peggio di noi solo Cipro e Malta). Quest'ultimo però è un dato di fine 2006 (non ce ne sono di più aggiornati), quindi forse adesso il confronto con l'Europa è migliorato, per lo sforzo recente di Telecom di portare Adsl a velocità limitata (a 640 Kbps) nelle zone più critiche.

Le speranze per il futuro sono però in generale poco rosee, riflette Between. Per diffusione del pc "difficilmente" si arriverà al 60 per cento nel 2010, quando molti altri Paesi europei saranno ormai all'80 per cento. Qui si confida nella diffusione dei pc portatili e soprattutto dei computer economici (ce ne sono da 299 euro), che in Italia si stanno vendendo molto bene nell'ultimo anno: un successo che ancora non viene calcolato nei dati Eurostat consultati da Between (relativi al 2006); già adesso la situazione potrebbe essere migliore di quella descritta.

Tuttavia, c'è un'altra brutta notizia, riporta Between: le nuove connessioni banda larga (a 50 e a 100 Mbps), in arrivo, nel medio periodo saranno solo nelle metropoli del Centro Nord, secondo i piani Telecom, il che renderà più profonda la spaccatura dell'Italia in due.

Tecnologie alternative all'Adsl possono alleviare i problemi: è dei giorni scorsi l'annuncio di Aria, che coprirà presto con il WiMax 100 comuni non raggiunti da Adsl.

Laddove però l'arretratezza delle connessioni è causata dall'assenza di fibra ottica nel sottosuolo, nessuna tecnologia può dare velocità elevate.
Allora davvero le speranze sono riposte nel sistema Paese: il sottosegretario allo Sviluppo Economico Paolo Romani ha annunciato ieri che partiranno entro fine anno i lavori della task force per dotare l'Italia di nuova generazione. Obiettivo, coprire con la banda larghissima (oltre 20 megabit) tutti gli italiani entro il 2013.

Il convegno di Between sulle tlc appena svoltosi a Capri, però, ha fatto emergere dai vari interventi che "adesso non ci sono risorse né pubbliche né private per creare una rete di nuova generazione in Italia", dice Cristoforo Morandini, vice presidente della società. È probabile quindi che nell'immediato i soggetti della task force (tra cui ci sono gli operatori, Ferrovie dello Stato, Poste Italiane e altri) solo si impegneranno a trovare una via comune per la nuova rete. I fatti domani, quando ci saranno i soldi.

fonte
www.repubblica.it

L'Italia e il digital divide ...

È IL QUADRO di Italia spaccata in due quello che emerge da un rapporto appena pubblicato da Agcom (Autorità Garante delle Comunicazioni) e curato da Between, società di consulenza del settore ICT, per quanto riguarda la banda larga. Ed è un'Italia divisa sotto tanti aspetti, che insieme ci allontanano dal resto dell'Europa Unita e che minacciano lo sviluppo economico del Paese. Il problema principale, che emerge dai dati di Between, è che gli utenti banda larga italiani sono solo 10,7 milioni (a marzo 2008). Dato che ci pone tra gli ultimi posti in Europa, per diffusione della banda larga: ormai anche la Spagna e la Slovenia ci ha superati e il Portogallo è un soffio alle spalle.

Il problema è noto, ma il rapporto lo mette in una luce nuova: per due motivi. Primo, perché si vede come la scarsa diffusione è in realtà sintomo di problemi profondi del nostro Paese, punta dell'iceberg di un problema più grosso, che è appunto quello di un Paese diviso in due. Da una parte, coloro che abitano in città medio-grandi, dove c'è tutto: la concorrenza è evoluta, le offerte sono competitive, economiche e veloci; dall'altra, i piccoli comuni, dove la banda larga, se c'è, è un piatto monotono di offerte. Altra spaccatura: tra coloro che hanno il pc (i quali spesso hanno anche la banda larga) e coloro (la maggior parte) che non ce l'hanno.

Secondo aspetto originale, nell'analisi di Between: in futuro potrebbe andare peggio, nel confronto con l'Europa, perché ci sono poche speranze che l'Italia possa fare grossi passi avanti in questi molteplici aspetti. "A meno che non ci sia uno sforzo corale del sistema" (scrive Between), cioè del governo e dei vari soggetti responsabili delle infrastrutture del paese.

In particolare, secondo Between, è la scarsa diffusione dei pc (49 per cento degli abitanti, fonte Eurostat) la causa principale dei ritardi sulla banda larga. Per diffusione della banda larga tra utenti di pc, infatti, l'Italia balza al quarto posto della classifica europea. Serve quindi aumentare l'alfabetizzazione degli italiani (come ribadito nei giorni scorsi anche da Franco Bernabe', amministratore delegato di Telecom Italia, a un convegno romano). Between assolve invece i prezzi della nostra banda larga: sono persino migliori rispetto alla media europea.

Nemmeno la scarsa diffusione dei pc sembra dipendere da motivi economici (da noi c'è una certa concorrenza sui prezzi), ma solo da fattori culturali e dal sistema scolastico. Bernabè ipotizza che molte cose cambierebbero se la Pubblica Amministrazione desse il buon esempio, adottando le nuove tecnologie per dialogare con il cittadino. L'informatica penetrerebbe così nelle vite quotidiane delle persone e crescerebbe la voglia e l'esigenza di dotarsi di un pc.

A causare i ritardi della banda larga c'è, in subordine, un altro fattore (stima Between): le infrastrutture. Sono distribuite in modo poco omogeneo nel Paese. Gli investimenti degli operatori alternativi a Telecom in infrastrutture (di "unbundling local loop") sono tutti concentrati su un 50 per cento della popolazione (nelle città più ricche), il che riduce la varietà e la convenienza delle offerte disponibili per metà degli italiani.

Forte divario anche tra città e campagna. L'Italia ha una copertura Adsl, in generale, nella media europea. molto sotto la media, invece, per copertura Adsl nelle campagne (peggio di noi solo Cipro e Malta). Quest'ultimo però è un dato di fine 2006 (non ce ne sono di più aggiornati), quindi forse adesso il confronto con l'Europa è migliorato, per lo sforzo recente di Telecom di portare Adsl a velocità limitata (a 640 Kbps) nelle zone più critiche.

Le speranze per il futuro sono però in generale poco rosee, riflette Between. Per diffusione del pc "difficilmente" si arriverà al 60 per cento nel 2010, quando molti altri Paesi europei saranno ormai all'80 per cento. Qui si confida nella diffusione dei pc portatili e soprattutto dei computer economici (ce ne sono da 299 euro), che in Italia si stanno vendendo molto bene nell'ultimo anno: un successo che ancora non viene calcolato nei dati Eurostat consultati da Between (relativi al 2006); già adesso la situazione potrebbe essere migliore di quella descritta.

Tuttavia, c'è un'altra brutta notizia, riporta Between: le nuove connessioni banda larga (a 50 e a 100 Mbps), in arrivo, nel medio periodo saranno solo nelle metropoli del Centro Nord, secondo i piani Telecom, il che renderà più profonda la spaccatura dell'Italia in due.

Tecnologie alternative all'Adsl possono alleviare i problemi: è dei giorni scorsi l'annuncio di Aria, che coprirà presto con il WiMax 100 comuni non raggiunti da Adsl.

Laddove però l'arretratezza delle connessioni è causata dall'assenza di fibra ottica nel sottosuolo, nessuna tecnologia può dare velocità elevate.
Allora davvero le speranze sono riposte nel sistema Paese: il sottosegretario allo Sviluppo Economico Paolo Romani ha annunciato ieri che partiranno entro fine anno i lavori della task force per dotare l'Italia di nuova generazione. Obiettivo, coprire con la banda larghissima (oltre 20 megabit) tutti gli italiani entro il 2013.

Il convegno di Between sulle tlc appena svoltosi a Capri, però, ha fatto emergere dai vari interventi che "adesso non ci sono risorse né pubbliche né private per creare una rete di nuova generazione in Italia", dice Cristoforo Morandini, vice presidente della società. È probabile quindi che nell'immediato i soggetti della task force (tra cui ci sono gli operatori, Ferrovie dello Stato, Poste Italiane e altri) solo si impegneranno a trovare una via comune per la nuova rete. I fatti domani, quando ci saranno i soldi.

www.repubblica.it

mercoledì 1 ottobre 2008

Pirati, leggi, discografici, tribunali e governi

No, non preoccupatevi, non vi intratterrò molto a lungo sull’argomento. Però mi piace sottolineare due notizie, arrivate alla fine della scorsa settimana, che la dicono lunga su come non ci sia ancora una strategia chiara da parte della discografia (e dei governi che cercano di appoggiarla) sulla “pirateria” via Internet. La prima notizia è che i legislatori europei hanno bocciato una proposta anti pirateria che includeva la possibilità che gli Isp potessero disconnettere gli utenti che praticano il peer to peer con file protettida copyright dopo tre avvertimenti. “La decisione è importante perchè viene chiarito che non si possono costringere gli Internet Provider a staccare il collegamento senza un regolare processo”, ha detto Christofer Fjellner, deputato centrista al parlamento europeo. In Francia, come sapete, la regola è in vigore, frutto di un accordo tra il governo, le major discografiche e cinematografiche e gli Isp. In Inghilterra, al contrario, gli Internet Provider si sono fieramente opposti, “perchè fino ad oggi non c’è regolamento o legger che consenta a noi di disconnettere gli abbonati per “copyright infringment”", ha detto Neil Berkett di Virgin Media. La scelta del parlamento europeo è importante, perchè si muove, per l’ennesima volta, cercando di non stravolgere le regole per accontentare gli “aventi diritto”. Del resto gli “aventi diritto”, cioè le major disco-cinematografiche, non ne fanno mai una dritta. Lo scorso anno la Recording Industry Association of America mise a segno la sua prima vittoria in tribunale per “copyright infringment”, costringengo Jammie Thomas a pagare 220.000 dollari di danni per aver scaricato “illegalmente” 24 canzoni. Jammie Thomas aveva reso disponibili le canzoni sul network p2p di Kazaa.Giovedì scorso il giudice Michael Davis ha ribaltato il verdetto affermando che le parti hanno commesso un “manifesto errore legale” durante il processo. Davis ha detto che ha sbagliato nel dire alla giuria che avrebbe potuto trovare colpevole Thomas, perchè, contrariamente a quanto aveva affermato l’industria discografica, non c’era nessuna prova che ci fosse stata una “distribuzione” sul network del materiale protetto da copyright. Thomas merita quindi un nuovo processo. La Riaa deve decidere, quindi, se affrontare nuovamente il processo o chiudere un accordo extragiudiziale, come ha già fatto in centinaia di altri casi. per ora il caso Thomas era l’unico arrivato al dibattimento in tribunale. La domanda è “era sufficiente per la Riaa dimostrare che Thomas aveva reso disponibile il materiale sul network di Kazaa o la Riaa doveva anche dimostrare che qualcuno aveva davvero scaricato quei brani da quel computer?. Il giudice oggi dice che c’è bisogno di questa prova e che quella fornita dalla Riaa, che si era collegata al computer di Thomas e aveva scaricato le canzoni, non è una prova accettabile, “perchè chi detiene i diritti non infrange la legge del copyright scaricando le proprie canzoni”. Ovviamente non c’è alcuna possibilità di portare una simile prova in tribunale, perchè Kazaa come tutti gli altri attuali networlk p2p non hanno una direcotry centrale dei file condivisi.
Il giudice, oltretutto, pur non perdonando la Thomas, ha detto che non c’era nessuna prova che ci fosse scopo di lucro e che la signora Thomas è una singola madre, non una “multimedia corporation”.

Insomma: è piuttosto difficile che tutta questa materia si risolva nel modo in cui vogliono l’industria discografica (che ha già inanellato una dozzina di anni di errori arrivando spesso a fare oggi in prima persona quello che considerava illegale se fatto dai consumatori una decina di anni fa) e l’industria cinematografica (che avrebbe dovuto imparare dagli errori dei discografici, non commettendoli nuovamente). Mentre è quasi certo che, non sappiamo tra quanto tempo, arriveremo alle sole soluzioni possibili: rendere legale il file sharing, mettendo una “tassa” compensativa per le aziende e i copyright owners pagabile quando si stipula un contratto con un Internet Provider, o dividere i proventi della pubblicità tra Isp e “content owners”.

Il file sharing “per se” non è un reato. Avere dei file sul proprio computer e collegare il proprio computer ad un network p2p non è un reato. Quindi entrambe le cose non possono essere vietate. Come fare dunque a mandare in prigione, o far pagare salatissime multe, agli “illegal downloaders”. Forse invece di continuare ad opporsi a un sistema che i consumatori sembrano gradire assai, sarebbe bene provare a trovare un sistema per cui tutti siano contenti e felici, gli “aventi diritto” e gli scaricatori. Un mondo ideale.

Ernesto Assante
www.repubblica.it

martedì 30 settembre 2008

Ancora sulla privacy: il medico voyeur

Lo chiamano vuoto legislativo. In questa Italia dove c'è una legge per tutto, si scopre ora che invece nessuno si è preso la briga di punire chi riprende di nascosto i glutei di una donna. Fino a che qualcuno interverrà con norme specifiche (e chissa mai quando qualcuno interverrà) i medici guardoni potranno filmare quello che vogliono, basta che non lo facciano a casa della donna perché nel codice esiste il reato di violazione di domicilio, non quello dell'intimità di una persona. In Italia è più protetta una casa che un corpo nudo.

Lo si è capito tre giorni fa quando la Corte di Cassazione ha assolto un medico di Firenze che aveva videoripreso di nascosto i glutei di una paziente nel suo studio durante una visita. Il professionista era stato condannato dalla Corte d’appello per il reato di «interferenze illecite nella vita privata mediante uso di riprese visive» in base all’articolo 615 bis del codice penale ma la quinta sezione penale ha annullato la sentenza senza rinvio perchè il medico non era condannabile in base al reato contestato.

Secondo la Corte, infatti, il 615 bis fa riferimento all’ articolo 614 sulla violazione di domicilio. In questo caso, però, non c’era stata violazione di domicilio e della sfera privata: la donna non era a casa sua ma nello studio del medico e quindi il motivo poteva fare più o meno quel che voleva. Si tratta di una «indubbia grave lacuna legislativa che sarebbe auspicabile fosse colmata», scrivono i supremi giudici.

Nella sentenza 36884, si spiega che «la signora, vittima della biasimevole condotta del professionista, ha certamente motivo di dolersi della violazione della propria privacy e della violazione del diritto alla propria immagine ma lo stato attuale della legislazione non consente nel caso di specie l’accesso alla tutela in sede penale ai sensi dell’articolo 615 bis cp».

Alla vittima ora non resta altro che far ricorso in sede civile per lesione della dignità e della riservatezza.

di Flavia Amabile
www.lastampa.it

venerdì 26 settembre 2008

Internet e privacy

Dalla carta fedeltà del supermercato ai dossier dello scandalo Telecom. In fondo non c’è poi molta differenza tra il controllo degli strateghi del marketing sulla nostra spesa e quello effettuato dalla Security dell’azienda di telecomunicazioni sui propri dipendenti. Sono due aspetti della stessa medaglia: la necessità di informazioni e la mancanza di fiducia che stanno alla base di quella che viene definita ormai «la società della sorveglianza».

Paura globale
E visto che le relazioni sociali si basano essenzialmente sulla fiducia reciproca, l’ossessione attuale per una sicurezza che sia il più possibile garantita - quanto effimera - rischia di farci sottovalutare il problema e di andare incontro a «un suicidio della società». E’ uno degli scenari prospettati dalla relazione che il professor David Lyon, docente della canadese Queen’s University e massimo esperto mondiale del settore, presenterà domenica alle 11 presso l’Auditorium fondazione di Piacenza e Vigevano, nell’ambito del Festival del Diritto, kermesse dedicata alle leggi che regolano e trasformano la nostra vita. Iniziativa partita ieri in quel di Piacenza, promossa dall’editore Laterza e dal «Sole 24 Ore», con il coordinamento scientifico di Stefano Rodotà, e che vedrà la partecipazione di giuristi, giornalisti e esperti di ogni campo. Tra i temi affrontati, che vanno dall’Europa alla famiglia, dalla salute all’alimentazione, uno dei più interessanti e attuali è forse proprio quello dedicato alla «società della sorveglianza». «Che non è più un’ipotesi del futuro ma la vita di tutti i giorni», dice Lyon. Il «Grande Fratello», come se lo immaginava Orwell nel suo «1984», è ormai fantasia ampiamente superata dai fatti, e può giusto titolare un programma tivù.
La tecnologia e la pervasività dei suoi strumenti, la verifica ossessiva di tutti gli aspetti della nostra vita - dalle intercettazioni telefoniche, ai conti bancari, agli autovelox - il nostro essere controllati e al tempo stesso controllori (vogliamo sapere qualcosa di qualcuno? Basta digitare un nome su Google o su Facebook) ci sta cambiando e cambia le nostre abitudini più di quanto noi stessi ci possiamo accorgere.

Troppe diseguaglianze
«Purtroppo la sorveglianza porta a grossolane diseguaglianze - dice Lyon - che vengono esacerbate attraverso le catalogazioni delle distinzioni di censo, di razza, luogo di nascita e cittadinanza. Inoltre il modello di sorveglianza intrapreso finora ci sta portando in un mondo nel quale verremo sempre meno creduti e dove, amplificando il sospetto, si mette in pericolo la coesione sociale e la solidarietà». Fino a rasentare il paradosso, come quando dotiamo di cellulare i nostri figli per «controllarli»: «E’ un sintomo di mancanza di fiducia. Alcune di queste cose vengono pensate per prudenza ma non è facile capirne il limite».
Gli effetti non sono piacevoli. Oltre ad aumentare la sfiducia verso il prossimo (per non parlare dello straniero e del diverso) al tempo stesso diminuiscono i parametri di valutazione interpersonale: i nostri comportamenti non vengono più soppesati da un collega, un superiore, un individuo in genere, ma da una videocamera, una striscia elettronica, un computer che conoscono i nostri gusti e le nostre abitudini più di noi stessi. Conviviamo con la «sorveglianza» 24 ore su 24 e non ce ne accorgiamo nemmeno più.
Alcuni controlli, scrive Lyon, appartengono ormai alla nostra routine, come quando prendiamo una multa per essere passati col rosso mentre in giro non c’era nessuno tranne la telecamera. «Di fatto si appartiene a un sistema di controlli che ormai sta alla base della nostra esistenza» e che è la cifra del mondo nel ventunesimo secolo. La privacy diventa così un concetto assai astratto, tutto da rivedere. «Tanto più - scrive Lyon - una società si sviluppa con criteri moderni, necessariamente aumentano i controlli sulle azioni che compiamo». E non è detto che la sorveglianza eccessiva raggiunga sempre i suoi obiettivi, vedi la lotta al terrorismo, anche se «bisogna ammettere che ci fa stare più tranquilli, favorendo così l’economia e lo sviluppo».

Come in una dittatura
Ma è un bene o un male? C’è chi vede in tutto ciò, spiega Lyon, un enorme complotto di forze oscure che richiama totalitarismi o sistemi dittatoriali. Chi invece attribuisce al sistema dei controlli una razionalizzazione delle dispersioni burocratiche e quindi un progresso verso un’amministrazione efficiente della vita. In realtà lo strumento del controllo è neutro. Prendiamo ad esempio il Telepass: può servire a controllare i nostri spostamenti ma al tempo stesso è innegabile che aiuti a snellire le code e a migliorare il traffico. Dunque, dipende da noi e da come ci sapremo organizzare pretendendo leggi e regole sicure sui professionisti della sorveglianza e la trasparenza dei controlli se il sistema ci aiuterà o diventerà uno strumento di oppressione.

di Paolo Colonnello
www.lastampa.it

martedì 9 settembre 2008

Edvige, la schedatura di massa

Si chiama Edvige: dietro un nome così suadente, si nasconde una schedatura di massa dai contorni ben poco attraenti, cioè la possibilità offerta alla polizia francese di catalogare migliaia di persone, a partire da tredici anni, e di riunire in un solo schedario informatico numerosi dati personali che le riguardano. Edvige: sfruttamento (exploitation) documentario e valorizzazione dell'informazione generale. Qualcosa cui George Orwell, nel suo 1984, non aveva pensato. Anche se in questo campo la Francia non è mai stata particolarmente all'avanguardia, pochi elementi bastano a dare qualche brivido.

Autorizzato dal 1° luglio scorso, Edvige può riunire "dati a carattere personale" riguardanti tutte le persone a partire da tredici anni. Potranno essere inseriti nello schedario informatico lo stato civile, l'indirizzo di casa, la targa automobilistica, i numeri di telefono, l'indirizzo mail e "i segni fisici particolari e obiettivi, fotografie e comportamento, informazioni fiscali e patrimoniali, dati relativi all'ambiente della persona, in particolare di chi intrattiene o ha intrattenuto con lei relazioni dirette e non fortuite".

Immediata e comprensibile la reazione negativa delle associazioni per i diritti civili : leggendo queste disposizioni, sembra evidente che un nero, un maghrebino, un rom, un omosessuale, un travestito verranno subito segnalati in quanto tali. Secondo il decreto che ha autorizzato Edvige, lo schedario riguarderà "gli individui, gruppi, organizzazioni e società che, a causa della loro attività, individuale o collettiva, sono suscettibili di minacciare l'ordine pubblico". Non solo : nello schedario saranno raggruppate le informazioni riguardanti chi "ha sollecitato, esercitato o esercita un mandato politico, sindacale o economico" oppure che svolgono "un ruolo istituzionale, economico, sociale o religioso significativo". Parlare di schedatura politica non è fuori luogo.

Eppure, non è una novità e su questo si appoggia il governo. Fino al 30 giugno scorso, in Francia esistevano i Renseignements Généraux, organo di polizia il cui compito era quello di informare il governo e i prefetti su tutto quel che avveniva sul terreno politico, sociale ed economico. Con la riforma, i Renseignements sono stati inseriti in una nuova struttura, che sfrutterà lo schedario Edvige. L'esistenza stessa di una schedatura di questo tipo, anche se più artigianale com'era in passato, sorprende, ma è tipicamente francese. Un esempio molto concreto : tutti i corrispondenti della stampa estera (compreso naturalmente chi scrive queste righe) hanno un dossier a loro nome ai Renseignements Généraux e il ministero degli Esteri accredita i giornalisti stranieri soltanto dopo aver ottenuto il via libera dei poliziotti.

Il governo risponde alle critiche basandosi proprio sull'esistente : Edvige non fa altro che raccogliere l'eredità di uno schedario creato nel 1991 (cioè all'epoca di Mitterrand) e offre maggiori garanzie di controllo. Ciò non toglie che faccia comunque impressione : il centrista François Bayrou e numerose associazioni hanno presentato ricorsi al Consiglio di Stato, che si pronuncerà in dicembre. Il ministro della Difesa, Hervé Morin, e la presidente della Confindustria transalpina, Laurence Parisot, hanno criticato l'iniziativa e chiesto chiarimenti. Il leader di uno dei principali sindacati, François Chérèque, è stato il più chiaro di tutti : "Non è perché esisteva già una schedatura vergognosa che la si deve ufficializzare. Questo schedario non deve esistere in un paese democratico".

A poco servono le assicurazioni date ieri da un portavoce del ministero dell'Interno : nessuno sarà indicato come omosessuale, ma sarà segnalata l'eventuale presidenza di un'associazione di lotta contro l'omofobia. Il che, sostanzialmente, non cambia le cose. Unico salvagente : Edvige non potrà essere interconnesso con nessun altro schedario informatico.

da www.repubblica.it

giovedì 26 giugno 2008

La nostra ombra digitale

Non la vediamo e ancora non ci pesa sulle spalle, ma la nostra «ombra digitale» cresce a dismisura e forse dovremo cominciare a preoccuparci. L'ultimo numero di «Focus» lancia questa inquietante ipotesi sui dati digitali che ognuno di noi produce attivamente e passivamente ogni giorno. Quello dell'«ombra digitale», che si allunga sempre più al nostro passaggio, naturalmente, è un peso non esprimibile in termini di materia solida, ma potrebbe diventare faticosissimo da sopportare ugualmente. L'ombra in questione si alimenta dei dati digitali che vengono registrati su di noi quando telefoniamo, mandiamo una mail, compiamo una transazione economica. Non solo, ma ogni frammento di nostra vita reale che viene digitalizzato da una telecamera, telefonino, videocamera di sorveglianza è un ulteriore alimento per l'ombra, che cresce, cresce e diventa sempre meno controllabile con le nostre sole forze. In media, ogni essere umano deve sopportare 45 gigabyte di dati.
Ma in Occidente è anche peggio. Quando da noi nasce un bambino, solo i filmetti che si girano in famiglia appoggiano su quelle tenere spallucce di neonato i primi 250 gigabyte di «ombra digitale». La ricerca non ne fa cenno, ma per molti la storia inizia ancora prima con i video delle ecografie che girano tra amici, magari via You-Tube, per stabilire somiglianze e impronte genetiche.
Per dare una rappresentazione ai dati digitali prodotti ora nel mondo si immagini che riempirebbero 12 pile di libri alte quanto la distanza tra la Terra e il Sole, (o una pila di libri alta come due volte la lunghezza dell'orbita terrestre) e si prevede che a questi ritmi di crescita, per il 2011, la pila coprirà due volte la distanza tra il Sole e Plutone, una cosa come 6 miliardi di km.
Non esiste una Babele burocratica immaginabile dalla mente umana paragonabile al mostro impalpabile «universo digitale», miliardi di informazioni di cui la gran parte noi nemmeno si immagina di generare. Prendiamo un'azione banale come l'invio di un'email, che pesa 1 megabyte, se è priva di grossi allegati: è un peso digitale che sale immediatamente a 51 Megabyte, se è inviata a 4 persone. L'aumento immediato di «ombra digitale» è, infatti, provocato dalle copie che, automaticamente, fanno del documento inviato sia i singoli pc degli utenti sia i server che gestiscono la posta. A loro volta i destinatari, poi, quando scaricano l'allegato, creano altri duplicati. ingigantendo così le «ombre digitali» dei loro ignari utenti.
L'«ombra digitale», poi, non è detto che appesantisca unicamente la lecita aspirazione alla privatezza di ogni essere umano. Il suo impatto è reale anche nel mondo concreto: anche il consumo di energia cresce assieme al fantasma dei dati digitali. Mediamente un server rack, nel 2000, si limitava ad assorbire la potenza di 1 kW. Oggi ne consuma 10 e si lavora alla nuova generazione da 20 kW. Si stima che Google abbia un potere di fuoco di circa 450 mila server, macchine generatrici di «ombra digitale» che hanno bisogno di una potenza totale di 90 MW, equivalente a quella prodotta da una centrale termoelettrica.
Per paradosso la mole maggiore di questi dati, che poi formano l'«ombra digitale», è sempre meno gestita dall’individuo, ma dalle aziende: molte forniscono gratuitamente servizi allettanti come caselle di posta illimitate, spazi server per pubblicare e scambiare foto, filmati e meravigliosi gadget che ci tengono incollati come bambini alla stressa macchina che usiamo per lavorare. Sarebbe giusto che cominciassimo a renderci conto che questo gioco ci fa sentire smisurati nelle nostre relazioni, ma presto ci impedirà di operare ogni forma di controllo su ciascun byte della nostra vita che affidiamo alla Rete, ma che ci ritroviamo automaticamente dietro alla schiena trasformato in inquieto spettro digitale. E’ una parte della nostra vita privata, che abbiamo fatto serenamente trapassare nell'aldilà digitale, ma forse senza la piena consapevolezza che qualcuno potrebbe, in ogni istante, metterci il naso senza chiederci il permesso.

di Gianluca Nicoletti
www.lastampa.it

lunedì 16 giugno 2008

Odore di regime?

Riporto da www.micromega.it

Censurato blog e condannato l’autore. Sentenza storica in Europa
di Giuseppe Giulietti

Cedo lo spazio della piazza del dissenso a Stefano Corradino direttore del sito www.articolo21.info che ci ha voluto segnalare un fatto gravissimo accaduto in Sicilia e che salvo pochissime eccezioni (solo il quotidiano “la Stampa”) non ha avuto alcun rilievo.

Caro Giulietti, ti segnalo una vicenda preoccupante per la libertà della rete: ieri il Tribunale di Modica ha condannato lo storico Carlo Ruta per un blog www.accadeinsicilia.net. Per la sentenza si configurerebbe il reato di “stampa clandestina” in quanto la periodicità del blog non sarebbe regolare. Sul sito www.articolo21.info abbiamo intervistato lo storico che ci ha confermato l’episodio. Due gli elementi gravi che ravvisiamo: il primo riguarda il principio di libertà di espressione sul web dal momento che questo sarebbe il primo caso in Europa di un blog chiuso con questa motivazione. La seconda ragione è più delicata e “politica” perché riguarda il contenuto del sito: nel blog infatti lo storico ha fatto ampie ricostruzioni, con una documentazione dettagliata e in parte inedita sul caso di Giovanni Spampinato, il giornalista, collaboratore dei quotidiani "l'Ora" e "l'Unità" che nel 1972, a soli 22 anni, fu ucciso a Ragusa mentre stava portando alla luce, in un'inchiesta su un delitto, un rilevante intreccio di affari e malavita... Grazie dell’attenzione. (Stefano Corradino)

Questo episodio non va sottovalutato perché si inserisce in un clima di pesante attacco ai poteri di controllo, alla giustizia e all’informazione che ha trovato il punto più alto nella proposta sulle intercettazioni presentata dal ministro Alfano. Non siamo soliti commentare le sentenze, ma questa può rappresentare un vero e proprio attacco all’autonomia dei blog e dei siti e mettere in discussione la libertà della rete. Per queste ragioni chiederemo a tutti gli organi competenti di far luce su quanto è accaduto.

16 giugno 2008

sabato 14 giugno 2008

Dalla Gran Bretagna il prontuario delle buone maniere

Debrett, la celebre guida inglese del bon ton, stila una lista di reglole de seguire per il coreto uso del famoso social Network Facebook.

Tali regole sono state scritte dopo che i risultati di una ricerca hanno mostrato che circa due terzi degli utenti di Facebook e My Space sono frustrati e confusi da ciò che avviene in quella giungla chiamata internet. Una confusione generata soprattutto da messaggi e da richieste di amicizia provenienti da sconosciuti.
Secondo questa ricerca, inoltre, il 18% degli utenti ha rivelato di trovarsi a disagio sapendo che l’ex fidanzato/a può accedere, tramite il profilo compilato su Facebook, a diverse informazioni personali, come ad esempio l’ attuale relazione con un’altra persona.

Debrett tenta cosi di aiutare gli utenti più disorientati a «sopravvivere» in questo campo minato, tramite un elenco di cinque regole del bon ton su internet:

1. Non inviate richieste di amicizia a estranei. Pensateci bene prima di farlo.

2. Aspettate almeno 24 ore prima di accettare o rimuovere qualcuno dalla lista dei vostri amici.

3. Eventi importanti come un compleanno o le nozze non sono «virtuali». Non trascurate i mezzi tradizionali come il telefono o una lettera per inviare i vostri auguri.

4. Prima di pubblicare la foto di un vostro amico, pensate a come vi sentireste se in quella foto ci foste voi.

5. Pensate con attenzione se sia il caso di pubblicare una vostra foto che potrebbe facilmente finire sui giornali locali.

giovedì 12 giugno 2008

Da Firenze il computer del futuro: atomi al posto dei bit

Visti da vicino sembrano mattoncini bianchi e confetti rossi uniti in una strana danza atomica. E nessuno potrebbe sospettare che dietro quei colori (di fatto inesistenti) e quelle geometrie così familiari, in realtà è celata la struttura del primo simulatore quantistico reale al mondo, un passo importante verso la realizzazione del computer quantistico, sogno di una generazione di fisici, perché capace di calcolare l'incalcolabile ed aprire orizzonti inesplorati della materia.
Lo ha realizzato, come scrive oggi Nature, un team di scienziati italiani del Lens di Firenze, (il laboratorio europeo di spettroscopie non lineari) guidati dal professor Massimo Inguscio. Che, per la prima volta, è riuscito ad osservare direttamente un fenomeno basilare nella fisica: la localizzazione di Anderson di onde di materia, una manifestazione quantistica descritta da uno scienziato americano (Anderson appunto) cinquant'anni fa, che per questa intuizione vinse nel 1977 il premio Nobel per la fisica. Per osservare il fenomeno, il team di Inguscio ha realizzato un simulatore quantistico, cioè una «macchina virtuale» capace di obbedire non più alla fisica classica, ma al mondo dei quanti, trasformando atomi in onde.
«Nell'esperimento abbiamo utilizzato atomi di potassio ultrafreddi cioè portati a temperature vicine allo zero assoluto, -273 gradi centigradi — spiega il professor Inguscio — che sono stati intrappolati in uno speciale cristallo disordinato, creato con fasci di luce laser. E siamo riusciti a osservare gli atomi che si trasformavano in onde atomiche». Insomma, un salto nel mondo dei quanti, misterioso e ineffabile, dove tutto può accadere, e tutto si può realizzare. «Un esperimento che apre nuove possibilità per simulare nuove fasi della materia — aggiungono Giovanni Modugno, Leonardo Fallani e Giacomo Roati, tre ricercatori del team — che si comportano secondo le leggi della meccanica quantistica». Non è stato facile. I ricercatori del Lens hanno lavorato per anni. A dicembre dal laboratorio fiorentino è arrivato un primo flebile segnale. Una grande emozione, subito frenata dalla ragione. False manifestazioni sono quasi quotidiane. Poi la certezza, a gennaio.
E la validazione dell'esperimento con la pubblicazione su Nature, una delle più prestigiose riviste scientifiche al mondo. Al di là del valore della scoperta, ritenuto straordinario dalla comunità scientifica, l'esperimento del Lens apre una porta verso ciò che oggi è solo un sogno: il computer quantistico. Un calcolatore dalla potenza straordinaria, capace di sostituire i quanti ai bit, i qbit. Secondo studi di Mario Rasetti, professore di Fisica teorica al Politecnico di Torino e segretario generale della Fondazione Isi, un elaboratore quantistico sarebbe capace di calcolare i fattori primi di un numero di cinquanta cifre in 40 minuti, contro i 10 miliardi di anni di un supercomputer tradizionale.
E ancora un quantum-pc potrebbe inviare via Internet un libro di 200 pagine con immagini in un millesimo di secondo e addirittura in pochi minuti, elaborare il genoma, per capire l'origine della vita e sapere chi siamo, da dove veniamo e dove andiamo. Un sogno, ancora un sogno. Che però i ricercatori italiani hanno reso un po' più bello e possibile.

Marco Gasperetti
www.corriere.it

lunedì 9 giugno 2008

British Telecom e la privacy

British Telecom avrebbe monitorato e registrato per mesi le abitudini di migliaia di utenti del web, per confezionare pacchetti pubblicitari personalizzati. E le associazioni per la tutela della privacy stanno affilando le armi per dichiarare guerra al colosso della telefonia, non nuovo ad accuse di questo tipo.
La cosiddetta "behavioral advertising", ovvero la "pubblicità comportamentale", è l'ultima, discussa, frontiera del marketing. Un modo per rendere le campagne nettamente più efficienti e remunerative. Ma anche più invasive. C'è chi sostiene che con questo strumento i provider possano mettersi in tasca la bella cifra di 112 milioni di euro in più l'anno.
In particolare BT, all'insaputa di circa trentamila abbonati Adsl, tra il 2006 e il 2007, con il sistema Phorm, avrebbe controllato il traffico online per confezionare pacchetti pubblicitari personalizzati. Ma, nodo fondamentale, gli utenti coinvolti, non erano stati avvertiti. "Il coinvolgimento diretto degli utenti avrebbe potuto influenzare il test", è stata la difesa da parte dell'azienda. "E' contro la legge. Aspettiamo di vedere quale sarà l'azione legale", è stata la replica di Richard Clayton, professore dell'università di Cambridge, nonché esperto di privacy nel settore informatica e telecomunicazioni e sviluppatore di software.
Ma BT, secondo la Bbc, non intende fermarsi e prevede di portare avanti questa tecnologia con un ulteriore test durante l'estate. "Non abbiamo ancora annunciato una data. Ci stiamo ancora organizzando, ma sarà molto presto", ha detto un portavoce.
In base a un rapporto pubblicato da Wikileaks, il controverso sito che consente la pubblicazione di materiali di denuncia in modo del tutto anonimo, nel 2006 BT ha intercettato quasi 19 milioni di pagine web, senza che gli utenti ne fossero stati informati. "Una piccola prova tecnica", secondo la compagnia.
Durante il test, le pubblicità sulle pagine web consultate dai clienti di BT, sono state eliminate e sostituite con annunci più mirati. Se nessuna pubblicità fosse stata disponibile, venivano inserite inserzioni di enti benefici.
British Telecom, in base alla relazione, ritiene che usare Phorm su larga scala sarà "impegnativo" e richieda almeno 300 server per tutti i clienti: "Una cosa impossibile da realizzare". Secondo la Bbc, però, la tecnologia di Phorm è stata aggiornata e le prove su larga scala oro sono molto più fattibili.
Per il professor Richard Clayton, il rapporto pubblicato da Wikileaks, "mostra chiaramente che nel 2006 BT ha illegalmente intercettato i suoi clienti web e ha elaborato illegalmente i loro dati personali". Secondo l'esperto, "l'autore del rapporto di BT sembra compiacersi che solo 15-20 persone abbiano notato quanto stava accadendo e non vede l'ora che arrivi un nuovo sistema che sarà completamente invisibile".
"Questo non è come ci aspettiamo che gli Internet service provider trattino i loro clienti - sottolinea Clayton - e poiché è contro la legge, ora dobbiamo aspettarci di vedere un procedimento giudiziario".
Ma secondo un portavoce di BT, "il processo è stato completamente anonimo e le informazioni personali non sono state immagazzinate o elaborate". Inoltre la compagnia "ha contattato i suoi legali prima di iniziare i test". Ma intanto altre compagnie telefoniche e altri provider, in particolare negli Usa, stanno manifestando un interessamento verso questa tecnologia. E le associazioni per la difesa della privacy sono arrivate a rivolgersi al Congresso per prendere in considerazione il fenomeno.
E in Italia? Nel nostro Paese il Garante per la privacy ha dato un segnale importante ad alcuni dei maggiori gestori di servizi telefonici e telematici. A fine gennaio a Telecom, Vodafone e H3G, è stata imposta la cancellazione di informazioni riguardanti i siti internet visitati dagli utenti. A Vodafone, H3G e Wind è stata impartita l'adozione di specifiche misure tecniche per la messa in sicurezza dei dati personali conservati a fini di giustizia.

da www.repubblica.it

giovedì 5 giugno 2008

La settimana della sicurezza informatica

In Italia un computer su cinque è infetto. Per la diffusione di virus informatici siamo al terzo posto in Europa e al decimo nel mondo. Sono alcuni dei numeri alla base della Settimana nazionale della sicurezza in rete, presentata oggi presso la sede Abi di Palazzo Altieri con il patrocinio dal ministero delle Comunicazioni (ora confluito nel ministero dello Sviluppo economico). L'iniziativa prenderà il via dopodomani per diffondere attraverso un video-blog la cultura della prevenzione e la conoscenza dei rischi informatici. A promuoverla è l'Unione Nazionale Consumatori, in collaborazione con Polizia postale, Abi Lab, SicuramenteWeb, Skuola.Net e l'agenzia giornalistica AGR, con il sostegno di Microsoft.
Altri dati presentati oggi, rendono, se possibile, ancora più fosco il quadro della sicurezza in rete. Dal 2001 la polizia postale ha chiuso 177 siti web con contenuti pedopornografici. L'11 per cento dei minori ha dichiarato di aver avuto contatti con pedofili o con persone sospette durante la navigazione in rete. Il 52 per cento degli utenti on line ha subito un tentativo di accesso non autorizzato alle proprie informazioni. Nel 2007 Microsoft ha rilevato ed eliminato oltre 3,5 milioni di software dannosi. La Settimana nasce quindi dalla volontà di rendere l'esperienza on line più sicura aiutando le persone a conoscere i comportamenti corretti da adottare.
"I rischi - ha spiegato il direttore della divisione investigativa della polizia postale, Maurizio Masciopinto - non sono solo per l'utente domestico, ma anche per le imprese. E se quelle grandi hanno affrontato il problema nel modo giusto, le piccole e medie imprese si affidano spesso a consulenti e pseudoesperti che in realtà tali non sono ed i loro server vengono così usati come teste di ponte per attacchi informatici".
Non manca quindi il lavoro alla polizia postale, diventata ormai, nelle parole dell'investigatore, "una punta di eccellenza nel sistema di contrasto alla criminalità informatica, siamo un modello per altri Paesi ed i nostri uomini hanno un'altissima specializzazione nel settore, anche grazie alla strada tracciata, nello scorso decennio, dal capo della Polizia, Antonio Manganelli".
Elogi alla Postale sono arrivati anche dal sottosegretario all'Interno, Alfredo Mantovano, che ha lamentato "la scarsa propensione degli italiani a dotarsi di sistemi di difesa dai rischi informatici e speriamo che la Settimana porti ad accrescere il livello di sicurezza on line".
L'iniziativa si svolgerà interamente sul web, attraverso un videoblog che accompagnerà l'utente nella conoscenza dei principali rischi da evitare. In sette giorni il blog affronterà altrettanti temi della sicurezza on line: Il tuo computer (sabato 7 giugno), I tuoi soldi (8), La tua identità elettronica (9), La tua privacy (10), La tua reputazione (11), I bambini (12), La tua connessione (12). Ogni mattina un video presenterà le cose da non fare per evitare spam, phishing, virus, furto di dati così via. Nel pomeriggio un altro video indicherà i comportamenti corretti. Durante la Settimana, inoltre, il sito Skuola.net diffonderà un prontuario perla sicurezza dei minori sul web.

***

ALLARME sicurezza sul Web. A lanciarlo è il nuovo rapporto aggiornato e pubblicato oggi dalla società McAfee, nota azienda produttrice di antivirus, dal titolo "Mappatura the Mal Web, versione aggiornata". L'analisi è stata effettuata su 9,9 milioni siti ad alto traffico in 265 diverse nazioni (siti il cui indirizzo termina con due lettere a indicare la nazione, per esempio .it come Italia) e domini generici (che terminano per esempio con .net o .info). E il risultato è un vero e proprio cybertsunami.
La classifica. Secondo la ricerca, il 19.2% dei domini pericolosi infatti terminano con .hk (Hong Kong). L'ex colonia britannica guadagna così il primo posto nella classifica dei siti più rischiosi, togliendo il primato a Tokelau, una minuscola isola di 1.500 abitanti nel Sud del Pacifico. A seguire nella classifica i siti cinesi (.cn) al secondo posto con l'11%. Figurano poi nella top 5, le Filippine (.ph), la Romania (.ro) e la Russia (.ru). Fra i siti più sicuri, invece, la Finlandia (.fi) con lo 0.05%, seguita dal Giappone (.jp).
Nel mirino del rapporto, però, anche i siti che terminano con .info (11.8%), mentre i siti web governativi (.gov) - afferma il Rapporto McAfee - si sono confermati come il dominio generico più sicuro. Il dominio più popolare, .com, infine, è complessivamente il nono più rischioso.
Un'economia da milioni di dollari. L'emergenza virus, codice malevolo (i cosiddetti malware), phishing (creazione di siti "civetta" per indurre l'utente a comunicare i propri dati di accesso) sono fra le minacce che si stanno diffondendo maggiormente e che destano non poche preoccupazioni. Tanto che si è mossa anche l'Organizzazione per la cooperazione e lo sviluppo economico (Oecd), la quale ha reso noto a sua volta un altro rapporto dal titolo "Software malizioso (Malware): una minaccia per la sicurezza all'economia di Internet" (pdf) in cui non si usano certo mezzi termini per definire lo stato della situazione: "Nel corso degli ultimi 20 anni - rivela lo studio - i malware si sono evoluti passando da exploit occasionali a una industria criminale che vale milioni di dollari".
Problemi per il navigatore. E, quindi, come difendersi dai pericoli del Web? Immediata la risposta di McAfee che suggerisce - ovviamente - di munirsi di antivirus. Tuttavia, a detta degli esperti del settore, qualche volta basterebbe seguire comportamenti inspirati al buon senso e alla cautela. Come ad esempio accertarsi che le informazioni presentate da un sito siano complete, non aprire allegati sospetti che riceviamo nella nostra casella di posta elettronica, controllare che il sito non chieda di fare operazioni inusuali. Nel qual caso, se poi quello stesso sito che ci chiede di scrivere il nostro nome utente, la nostra password e il numero Pin del conto corrente, ha un indirizzo che termina con .hk, adesso lo sappiamo, è probabilmente una truffa. Navigatore avvisato, mezzo salvato.

venerdì 30 maggio 2008

Il cervello non ha più segreti

La mente non è ancora un libro aperto, ma i meccanismi alla base del pensiero stanno diventando sempre più chiari. Un team di scienziati americani è riuscito a decifrare una parte del codice linguistico del cervello, individuando alcuni circuiti neuronali che si attivano nel momento in cui si pensa a determinate parole, collegate a oggetti concreti, come un fiore, ad esempio.

Secondo la rivista Science, che dà notizia dello studio, questa scoperta potrebbe portare, in futuro, alla creazione di un dizionario cerebrale e alla possibilità di sviluppare dei dispositivi capaci di leggere nella mente perché in grado di utilizzare questo dizionario.

Un équipe congiunta di esperti informatici e di neuroscienziati - coordinati da Tom Mitchell della Carnegie Mellon University di Pittsburgh - ha usato la risonanza magnetica funzionale, che fotografa il cervello in presa diretta, su un gruppo di volontari. Questo ha permesso di osservare diverse combinazioni di attività neurali, ciascuna associata ad una parola. Partendo da queste associazioni e utilizzando calcoli statistici, gli scienziati sono riusciti a dedurre un vero e proprio codice di migliaia di parole. Codice che è composto dalla decodificazione di quelli che potrebbero definirsi "crittogrammi neurali".

"Crediamo di aver identificato un certo numero di unità di codice di base che il cervello usa per rappresentare il significato di alcune parole", ha spiegato Mitchell, che è un pionere nell'applicazione dei computer allo studio del cervello. Non esiste, per ora, un vocabolario esteso (basti pensare che per i nomi astratti non sono state individuati circuiti cerebrali), ma, come afferma un altro autore dello studio, Marcel Just, "è un passo importante nella decifrazione del codice del cervello".

Le applicazioni di queste scoperte vanno ben oltre la possibilità di leggere i pensieri altrui. In futuro potrebbero permettere una migliore comprensione di malattie come l'autismo e di disturbi del pensiero quali la paranoia, la schizofrenia, la demenza semantica. "La prospettiva è quella di riuscire a determinare come i soggetti autistici rappresentano dal punto di vista neurale concetti sociali quali l'amicizia e la felicità", ha detto Just, che dirige il Center for Cognitive Brain Imaging della Carnegie Mellon University.

Non è la prima volta che gli scienziati tentano di guardare "nella testa delle persone". Studi recenti mostrano che la risonanza magnetica potrebbe servire per inchiodare i bugiardi (perché quando si mente le aree cerebrali che si attivano sono più numerose rispetto a quando si dice la verità).

http://www.repubblica.it/2007/09/sezioni/scienza_e_tecnologia/cervello-artificiale/leggere-pensieri/leggere-pensieri.html

mercoledì 14 maggio 2008

Tra Internet e mercato il duello continua

La cultura è diventata più accessibile con Internet, ma il mercato si oppone: è battaglia ideologica tra chi considera la cultura patrimonio di tutti e chi proprietà da difendere.
«La gratuità è un furto» è lo slogan provocatorio lanciato da Denis Olivennes, direttore del Nouvel Observateur ex capo di Fnac, in un pamphlet che vanta nell’edizione italiana la prefazione del presidente Siae Giorgio Assumma: «Il peer-to-peer è l’ultima forma di pirateria, che danneggia gravemente tutta l’industria dei contenuti».
Gian Arturo Ferrari, capo dei libri Mondadori (nella foto a sinistra), è d’accordo con Olivennes: l’emergere di un mercato della cultura ha democratizzato le opere d’ingegno, entrate nei consumi di massa, ma «i libri gratis sono utopia, la funzione editoriale di tramite tra autore e pubblico è insostituibile». Per Ferrari il progresso aumenta il bisogno di intermediazione: «Altrimenti sarebbe il caos, comunicare è fatica. Internet è un torbido mare in cui non ti trova nessuno».
Di parere diverso Marco Calvo (nella foto a destra), fondatore dell’Associazione Liber Liber, che ha creato già 15 anni fa una biblioteca digitale ad accesso gratuito (Progetto Manuzio), arricchita da un’audioteca (LiberMusica) fino alla nuova piattaforma OpenAlexandria per la produzione e distribuzione di contenuti digitali liberi da copyright. «Allo Stato un popolo colto “conviene”. La cultura non è diventata più accessibile grazie al mercato, ma alle innovazioni tecnologiche». La macchina da stampa di Gutenberg fece crollare il costo dei libri e da allora il progresso ha subìto una straordinaria accelerazione. «Oggi Internet consentirebbe un crollo del costo della cultura altrettanto significativo, se non fosse per le resistenze controproducenti (meno cultura, meno mercato) dei grandi editori».
Internet propone nuovi intermediari: la reputazione di un autore è decretata dai suoi lettori, che lo fanno emergere tramite il passaparola. Ne sa qualcosa Lorenzo Fazio, fondatore di ChiareLettere (che pubblica autori di successo come Marco Travaglio), entusiasta delle potenzialità offerte dalla Rete: «I nostri autori hanno successo grazie ai blog e i social network». Si chiama «marketing reputazionale» e punta su un nuovo modello di business: sul Web gli autori dei libri di cucina, i più piratati, possono ripagarsi attraverso la pubblicità, il merchandising, perfino aprendo ristoranti, grazie al proprio «marchio».
Eppure Tracy Chevalier, best seller per «La ragazza con l'orecchino di perla», insiste che la pirateria attraverso Internet rischia di ridurre gli autori a «non poter più scrivere» e fa eco a Olivennes: «La cultura della gratuità, invece di diversificare l’offerta, la impoverisce». Calvo eccepisce: «Quali studi dimostrerebbero che la cultura gratuita impoverisce? Non sono certo che la diversità e ricchezza culturale sia tra le priorità delle multinazionali, che in realtà impongono gli stessi modelli culturali e gli stessi prodotti in tutto il mondo per abbattere costi di promozione e semplificare la gestione del catalogo».
Se molto materiale si trova solo nei circuiti pirata, è segno evidente che l'attuale mercato non funziona. Quanti autori vivono delle proprie opere? Quante sono fuori catalogo perché ritenute non produttive? Secondo la teoria della «coda lunga» di Chris Anderson, Internet fa fiorire le micro-nicchie, che sommate portano numeri molto più alti dei pochi successi di massa.
Per Ferrari di Mondadori, che guadagna tra il 10 e il 15% su ogni copia venduta, «la coda lunga è sottilissima» e bisogna modificare la legge sul copyright: l’autore ritorna in possesso della propria opera dopo vent’anni solo a patto che il libro sia ancora in commercio, ma «con il Print On Demand questa regola deve valere anche se il libro non è in stampa». Calvo si spinge oltre: «Gli autori, ostaggi dei mega-editori, devono essere liberi dai contratti di esclusiva».
Un fatto è certo: cercare di controllare la circolazione delle opere su Internet è come cercare di fermare il vento con le mani. Contenuti liberi in licenza «Creative Commons» (il copyright flessibile su Internet) sono già centinaia di milioni e permettono di fruire opere che le grandi multinazionali non distribuirebbero mai.
«Ad avere una pericolosità sociale ben più grave della pirateria sono i prezzi alti e il cartello dei circuiti bancari, che impediscono le microtransazioni, a loro poco convenienti, ma tecnicamente possibili da anni a costi sostanzialmente nulli» accusa Calvo. Autori da poche migliaia di opere ricaverebbero una remunerazione adeguata. E di fronte a prezzi convenienti, la pirateria sarebbe marginale.

Anna Masera
www.lastampa.it

lunedì 5 maggio 2008

Dichiarazioni dei redditi sul sito dell’Agenzia delle entrate e privacy: aspetti giuridici

Il mio amico Gianluigi Fioriglio, grande esperto di informatica giuridica e diritto dell'informatica, è intervenuto sul suo sito www.dirittodellinformatica.it sulla controversa vicenda della diffusione via internet dei dati delle dichiarazioni dei redditi chiarendo le principali implicazioni giuridiche della questione.

La pubblicazione delle dichiarazioni dei redditi degli italiani sul sito web dell’Agenzia delle entrate ha suscitato molte polemiche e dubbi. Vediamo i dettagli e gli aspetti giuridici.

1. I fatti
Il Direttore dell’Agenzia delle entrate, con provvedimento del 5 marzo 2008 (prot. n. 197587/2007), ha disposto la pubblicazione sul sito Internet http://www.agenziaentrate.gov.it degli elenchi nominativi dei contribuenti che hanno presentato le dichiarazioni dei redditi relative all’anno d’imposta 2005.
Il 30 aprile 2008 tali elenchi sono stati effettivamente pubblicati sul sito ma sono rimasti on line poche ore, poiché il Garante della privacy è prontamente intervenuto e ha invitato – ma non costretto – l’Agenzia delle entrate a sospendere tale pubblicazione.
L’Agenzia delle entrate ha comunque accolto l’invito e ha eliminato i dati delle dichiarazioni dal proprio sito web, ma bisogna sottolineare che – dal punto di vista giuridico – il Garante non ha in realtà disposto il blocco del trattamento, ma ha solo chiesto ulteriori chiarimenti (che dovrebbero giungere entro lunedì) e ha praticamente “suggerito” l’eliminazione dei dati dal sito.
Nelle poche ore in cui i dati sono stati on line diversi utenti li hanno visionati e scaricati sul proprio computer; alcuni di essi li hanno condivisi sulle reti di peer to peer e così anche attualmente è possibile scaricarli dalla rete eDonkey (con programmi ben noti come eMule): di qui ulteriore benzina sul fuoco!
Secondo il Garante, la diffusione in Internet, anche per poche ore, ha reso ingovernabile la circolazione e l’uso di questi dati così come la loro stessa protezione.
L’avvenuta pubblicazione ha suscitato, allo stesso tempo, forti consensi ma altrettanto forti critiche, le ultime motivate, in particolare, dalla potenziale lesione del diritto alla privacy e dall’esigenza di tutelare la sicurezza delle persone. La pubblicazione dei dati del reddito, infatti, potrebbe favorire reati gravi come estorsioni e rapine.
In molti hanno espresso il loro parere: Stefano Rodotà (ex presidente del Garante per la protezione dei dati personali) si è detto favorevole alla pubblicazione così come Marco Travaglio, diversi esponenti politici si sono detti contrari, così come Beppe Grillo: è interessante notare come il parere del comico genovese sia stato uno dei più citati, ancor più di quello di Rodotà…

2. Le norme
In questa sede si ritiene di prescindere dai giudizi di merito e di opportunità politica e di concentrarsi solo sul quadro normativo.
Innanzi tutto, vengono in riferimento due testi normativi principali: il d.p.r. 600/73, il d.p.r. 633/72 e il d.lgs. 196/03 (c.d. Codice della privacy). Chiariamo subito che molti giornalisti evidentemente sono rimasti un po’ indietro, visto che in diversi casi si è parlato di “legge sulla privacy” (la vecchia legge 675/96 è stata abrogata da tempo dal Codice della privacy…).
L’art. 69 d.p.r. 600/73 dispone che:
“1. Il Ministro delle finanze dispone annualmente la pubblicazione degli elenchi dei contribuenti il cui reddito imponibile è stato accertato dagli uffici delle imposte dirette e di quelli sottoposti a controlli globali a sorteggio a norma delle vigenti disposizioni nell'ambito dell'attività di programmazione svolta dagli uffici nell'anno precedente.
2. Negli elenchi deve essere specificato se gli accertamenti sono definitivi o in contestazione e devono essere indicati, in caso di rettifica, anche gli imponibili dichiarati dai contribuenti.
3. Negli elenchi sono compresi tutti i contribuenti che non hanno presentato la dichiarazione dei redditi, nonché i contribuenti nei cui confronti sia stato accertato un maggior reddito imponibile superiore a 10 milioni di lire e al 20 per cento del reddito dichiarato, o in ogni caso un maggior reddito imponibile superiore a 50 milioni di lire.
4. Il centro informativo delle imposte dirette, entro il 31 dicembre dell'anno successivo a quello di presentazione delle dichiarazioni dei redditi, forma, per ciascun comune, i seguenti elenchi nominativi da distribuire agli uffici delle imposte territorialmente competenti:
a) elenco nominativo dei contribuenti che hanno presentato la dichiarazione dei redditi;
b) elenco nominativo dei soggetti che esercitano imprese commerciali, arti e professioni.
5. Con apposito decreto del Ministro delle finanze sono annualmente stabiliti i termini e le modalità per la formazione degli elenchi di cui al comma 4.
6. Gli elenchi sono depositati per la durata di un anno, ai fini della consultazione da parte di chiunque, sia presso lo stesso ufficio delle imposte sia presso i comuni interessati. Per la consultazione non sono dovuti i tributi speciali di cui al D.P.R. 26 ottobre 1972, n. 648.
7. Ai comuni che dispongono di apparecchiature informatiche, i dati potranno essere trasmessi su supporto magnetico ovvero mediante sistemi telematici”.

L’art. 66-bis d.p.r. 633/72 prevede che:
“1. l Ministro delle finanze dispone annualmente la pubblicazione di elenchi di contribuenti nei cui confronti l'ufficio dell'imposta sul valore aggiunto ha proceduto a rettifica o ad accertamento ai sensi degli articoli 54 e 55. Sono ricompresi nell'elenco solo quei contribuenti che non hanno presentato la dichiarazione annuale e quelli dalla cui dichiarazione risulta un'imposta inferiore di oltre un decimo a quella dovuta ovvero un'eccedenza detraibile o rimborsabile superiore di oltre un decimo a quella spettante. Negli elenchi deve essere specificato se gli accertamenti sono definitivi o in contestazione e deve essere indicato, in caso di rettifica, anche il volume di affari dichiarato dai contribuenti.
2. Gli uffici dell'imposta sul valore aggiunto formano e pubblicano annualmente per ciascuna provincia compresa nella propria circoscrizione un elenco nominativo dei contribuenti che hanno presentato la dichiarazione annuale ai fini dell'imposta sul valore aggiunto, con la specificazione, per ognuno, del volume di affari. Gli elenchi sono in ogni caso depositati per la durata di un anno, ai fini della consultazione da parte di chiunque, sia presso l'ufficio che ha proceduto alla loro formazione, sia presso i comuni interessati. Per la consultazione non sono dovuti i tributi speciali di cui al decreto del Presidente della Repubblica 26 ottobre 1972, n. 648.
3. (abrogato)
4. Gli stessi uffici pubblicano, inoltre, un elenco cronologico contenente i nominativi dei contribuenti che hanno richiesto i rimborsi dell'imposta sul valore aggiunto e di quelli che li hanno ottenuti”.

Tali norme, dunque, non prevedono la possibilità di pubblicare via Internet gli elenchi dei nominativi e dei redditi dei contribuenti.

3. Responsabilità penali per il P2P?
Un ulteriore profilo merita di essere approfondito: il download e la condivisione dei dati mediante le reti P2P sono effettivamente illeciti come abbiamo letto sui giornali? È stata infatti ipotizzata la rilevanza penale di simili condotte.

Analizziamo la questione alla luce del cod. priv.. La norma contestata è l’art. 167 cod. priv., che punisce il trattamento illecito di dati personali. Ecco il testo della norma:

“1. Salvo che il fatto costituisca più grave reato, chiunque, al fine di trarne per sè o per altri profitto o di recare ad altri un danno, procede al trattamento di dati personali in violazione di quanto disposto dagli articoli 18, 19, 23, 123, 126 e 130, ovvero in applicazione dell'articolo 129, è punito, se dal fatto deriva nocumento, con la reclusione da sei a diciotto mesi o, se il fatto consiste nella comunicazione o diffusione, con la reclusione da sei a ventiquattro mesi.
2. Salvo che il fatto costituisca più grave reato, chiunque, al fine di trarne per sè o per altri profitto o di recare ad altri un danno, procede al trattamento di dati personali in violazione di quanto disposto dagli articoli 17, 20, 21, 22, commi 8 e 11, 25, 26, 27 e 45, è punito, se dal fatto deriva nocumento, con la reclusione da uno a tre anni”.

Pertanto, cosa succede se i dati vengono condivisi mediante un programma di P2P come eMule? Questa norma trova applicazione?

Sicuramente viene svolto un trattamento di dati personali e molto probabilmente esso è, allo stato dei fatti, illecito. Ma per ora non sembra si possa sostenere l’applicazione dell’art. 167 cod. priv. perché la norma richiede che chi commette il fatto deve farlo o per trarne profitto (per sé o per altri) oppure per danneggiare qualcuno. Dunque, nel caso di specie bisognerebbe riuscire a provare che chi scarica e condivide i file contenenti gli elenchi delle dichiarazioni dei redditi trae un beneficio economico da tale attività oppure lo fa proprio per danneggiare qualcuno. Non solo: bisogna pure provare che sia stato cagionato un nocumento...

Se ora sembra difficile sostenere l’illiceità penale di tale condotta, il quadro potrebbe mutare a breve: è prevista l’imminente pubblicazione di un provvedimento del Garante per la protezione dei dati personali che chiarirà la questione.

Se il Garante dovesse imporre il blocco del trattamento allora chi scarica e condivide le tanto contestate informazioni potrebbe essere punibile penalmente ai sensi dell’art. 170 cod. priv. (inosservanza di provvedimenti del Garante), ai sensi del quale “chiunque, essendovi tenuto, non osserva il provvedimento adottato dal Garante ai sensi degli articoli 26, comma 2, 90, 150, commi 1 e 2, e 143, comma 1, lettera c), è punito con la reclusione da tre mesi a due anni”.

Con il provvedimento del Garante la situazione sarà chiarita, ma tutto lascia presumere che sarà vietata la libera diffusione via Internet di tali dati: infatti la stessa Autorithy ha espresso il suo disfavore verso tale situazione in un comunicato stampa (l’accessibilità dei dati in rete non significa che essi siano di per sè liberamente diffondibili da qualunque utente della rete; la loro ulteriore diffusione può esporre a controversie e conseguenze giuridiche).