Librarian data stewards can propose an update of the SA 8000 standard by integrating as a crosscutting requirement the data stewardship for open science based on the European FAIR data guidelines and the GDPR directives for open data, pursuing the Agenda 2030 targets: Target 4.6 "Ensure that all youth and a substantial proportion of adults, both men and women, achieve literacy and numeracy"; Target 16.6 "Develop effective, accountable and transparent institutions at all levels"; Target 16.10 "Ensure public access to information and protect fundamental freedoms, in accordance with national legislation and international agreements".In the evolution of IoT (internet of things) related apps and tools, data driven algorithms are crucial. We therefore speak of IoD (internet of data) as a source for the experimental development of integrated and innovative applications in the environmental and energy services field, the healthcare sector, and also in the context of Smart Cities. For a correct and transparent management of the micro and macrosystemic information flow it becomes essential to share and aggregate different and interoperable sources.The librarian as data steward has the task of promoting cultural change towards shared research, acting on those who produce and reuse data. To this end, it is necessary to facilitate the technology transfer necessary for open science, through the synergy between stakeholders and data producers. ; I data steward bibliotecari possono proporre un aggiornamento dello standard SA 8000 integrando come requisito trasversale la 'data stewardship per la scienza aperta' basata sui principi dei FAIR data e i dettami del GDPR per gli open data, perseguendo i traguardi dell'Agenda 2030 delle Nazioni unite: Traguardo 4.6 "Assicurarsi che tutti i giovani e una parte sostanziale di adulti, uomini e donne, raggiungano l'alfabetizzazione e l'abilità di calcolo"; Traguardo 16.6 "Sviluppare istituzioni efficaci, responsabili e trasparenti a tutti i livelli"; Traguardo 16.10 "Garantire l'accesso del pubblico alle informazioni e proteggere le libertà fondamentali, in conformità con la legislazione nazionale e con gli accordi internazionali".La data stewardship in ambito scientifico oltrepassa la semplice accessibilità e usabilità del dato, puntando a nuovi livelli di interoperabilità con nuovi sistemi e piattaforme.Nell'evoluzione di app e strumenti legati all'IoT (internet of things o internet delle cose) sono determinanti algoritmi alimentati dai dati. Si parla quindi di IoD (internet of data) come fonte per lo sviluppo sperimentale di applicazioni integrate e innovative nel campo ambientale, sanitario, energetico, con implementazioni anche nelle smart city. Per una corretta e trasparente gestione del flusso informativo microsistemico e macrosistemico diviene indispensabile condividere e aggregare fonti diverse e interoperabili.Il bibliotecario come data steward ha il compito di promuovere il cambiamento culturale verso la ricerca condivisa, agendo su chi produce e su chi riusa i dati. Per questo obiettivo serve agevolare il trasferimento tecnologico necessario per la scienza aperta, tramite la sinergia tra stakeholder e produttori di dati.
L'elaborato si propone di illustrare l'importanza dei "Big Data" dal punto di vista economico e i rischi legati ad un utilizzo scorretto di questi ultimi, con un focus sul caso specifico del Data Gate che ha riguardato Facebook e la società britannica di consulenza Cambridge Analytica. I dati personali e gli algoritmi che li elaborano stanno aprendo la strada ad un nuovo tipo di economia, la "Data Economy". I big data rappresentano ormai un fattore concorrenziale e funzionale allo sviluppo delle singole aziende, nonchè un vantaggio informativo-competitivo non indifferente, influenzando la produttività e creando un valore economico significativo per le stesse. Grazie ai dati personali dei consumatori, le aziende sono in grado di approfondire al meglio le esigenze dei loro clienti, di ampliare le loro conoscenze di mercato, di elaborare offerte mirate per specifici target e mettere in atto pratiche competitive. Di fatto, i big data costituiscono un valore aggiunto per le imprese, che, tramite il feedback dei loro clienti, possono migliorare i servizi e agire con operazioni più efficienti. Tuttavia, bisogna considerare come i big data nascondano anche delle insidie per gli utenti soggetti al trattamento dei dati, dal momento che permettono, non solo un match migliore tra azienda e cliente/utente, bensì anche di influenzare le scelte di quest'ultimo con una comunicazione mirata e fondata proprio sui dati raccolti.
L'ultimo decennio ha reso estremamente popolare il concetto di Open Government, un modello di amministrazione aperto che fonda le sue basi sui principi di trasparenza, partecipazione e collaborazione. Nel 2011, nasce il progetto Dati.gov.it, un portale che ha il ruolo di "catalogo nazionale dei metadati relativi ai dati rilasciati in formato aperto dalle pubbliche amministrazioni italiane". L'obiettivo della tesi è fornire un efficace strumento per ricercare, usare e confrontare le informazioni presenti sul portale Dati.gov.it, individuando tra i dataset similarità che possano risolvere e/o limitare l'eterogeneità dei dati presenti. Il progetto consiste nello sviluppo su tre aree di studio principali: Standard di Open Data e Metadata, Record Linkage e Data Fusion. Nello specifico, sono state implementate sette funzioni contenute in un'unica libreria. La funzione search permette di ricercare all'interno del portale dati.gov.it. La funzione ext permette di estrarre le informazioni da sette formati sorgente: csv, json, xml, xls, rdf, pdf e txt. La funzione pre-process permette il Data Cleaning. La funzione find_claims è il cuore del progetto, perché contiene l'algoritmo di Text Mining che stabilisce una relazione tra i dataset individuando le parole in comune che hanno una sufficiente importanza all'interno del contesto. La funzione header_linkage permette di trovare la similarità tra i nomi degli attributi di due dataset, consigliando quali attributi concatenare. In modo analogo, record_linkage permette di trovare similarità tra i valori degli attributi di due dataset, consigliando quali attributi concatenare. Infine, la funzione merge_keys permette di fondere i risultati di header_linkage e record_linkage. I risultati sperimentali hanno fornito feedback positivi sul funzionamento dei principali metodi implementati per quanto concerne la similarità sintattica tra due dataset.
I dati formano il nostro "io" digitale e costituiscono il fondamento di ogni attività umana. Il governo della data society passa dal governo dei dati e il diritto è chiamato a disciplinare i volti assunti dai dati, dalle informazioni e dalla conoscenza nella contemporaneità e a tutelare i diritti coinvolti. In una realtà caratterizzata da amministrazioni aperte e cittadinanza digitale, il lavoro mira ad esaminare gli strumenti di conoscenza relativi alle diverse configurazioni dei dati, identificate nei closed data e nei relativi volti della trasparenza (proattiva e reattiva), negli open data e nei big data. L'analisi degli strumenti di conoscenza permette di comprendere le questioni che si pongono al diritto: le connessioni intricate di dati rivelano connessioni intricate di diritti, da bilanciare al fine di tutelare la persona e la società democratica. Il lavoro esamina la disciplina e le problematiche dei diritti maggiormente coinvolti nella data governance, in specifico right to know, identità, oblio, diritto d'autore e protezione dei dati personali, alla ricerca del bilanciamento tra gli stessi nelle diverse configurazioni assunte dai dati. In conclusione il lavoro arriva a suggerire un bilanciamento tra diritti nel governo dei dati basato sulla centralità della persona, in particolare sulla dignità e sullo sviluppo della stessa. La tutela dei diritti può basarsi su un approccio preventivo e tecnologico by default e by design e sull'accountability dei soggetti, immaginando soluzioni capaci di innovare i paradigmi tradizionali e minimizzare i rischi di asimmetria, controllo e sorveglianza, come gli open big data e forme di tutela collettiva; il rinnovamento del diritto passa da una costruzione di matrice globale e multistakeholder ed è guidato da un approccio etico. Il ruolo del diritto e la forza dei diritti sono necessari al governo della data society e alla tutela della persona nell'era digitale: ubi data society, ibi ius. ; The data form our digital self and constitute the foundation of every human activity. The government of data society passes from data governance and the law is called upon to regulate the faces assumed by data, information and knowledge in contemporary society and to protect the involved rights. In a reality characterized by open administrations and digital citizenship, this work aims to examine the tools of knowledge related to the different data configurations, identified in closed data and in the related faces of disclosure (proactive and reactive), in open data and in big data. The analysis of the tools of knowledge makes it possible to understand the issues that arise in law: the intricate connections of data reveal intricate connections of rights, which must be balanced in order to protect the individual and the democratic society. This work examines the discipline and the issues of the rights most involved in data governance, specifically right to know, identity, right to be forgotten, copyright and data protection. In conclusion, the work suggests a balance between rights in data governance based on the central role of the individual, in particular on the dignity and the development of the individual himself. The protection of the rights can be based on a preventive and technological approach by default and by design and on the accountability of the subjects, imagining solutions capable of minimizing the risks of asymmetry, control and surveillance, such as open big data and forms of collective protection; the renewal of law is based on a global and multistakeholder construction that is guided by an ethical approach. The role of law and the force of rights are necessary for the governance of data society and for the protection of the individual in the digital age: ubi data society, ibi ius.
L'articolo tratta delle modalità attraverso cui può realizzarsi una nuova forma di partecipazione all'esercizio delle funzioni amministrative grazie agli strumenti offerti dalle tecnologie dell'informazione e della comunicazione. In tale prospettiva l'articolo valuta il portato normativo della «partecipazione democratica elettronica» di cui all'art. 9 del Codice dell'amministrazione digitale in relazione alla disciplina degli open data ed alla luce della rilevanza che i dati hanno assunto nell'ambito dell'istruttoria procedimentale. Rispetto alla partecipazione di cui alla l. 241/1990, l'Autore suggerisce che la «partecipazione democratica elettronica» possa rappresentare uno strumento per la co-creazione e l'arricchimento del patrimonio informativo delle pubbliche amministrazioni. ; This paper deals with the ways in which a new form of participation within the exercise of administrative functions can be achieved thanks to the tools offered by information and communication technologies. In this perspective, this paper assesses the normative scope of the «electronic democratic participation» referred to in art. 9 of the Digital Administration Code, as well as in relation to the regulation of open data and in light of the relevance that the data have assumed in the context of administrative procedures. With respect to the participation referred to in l. 241/1990, the Author suggests that the «electronic democratic participation» can be a tool for the co-creation and enrichment of the databases of public administrations.
The article examines research data practices in the Humanities within the European area.The great attention paid to research data in European policies on research confirms their strategic role in the development and optimization of the scientific research.The analysis of some research infrastructures and projects focused on research data in the Humanities shows how the European Member States can act centrally in improving and developing them, in order to make efficient individual activities and to reduce the lack of homogeneity, and to support the presence of easily identifiable, usable and integrated systems. ; L'articolo indaga il tema dei research data nell'ambito delle discipline umanistiche, in area europea. Definendo tale tipologia di dati come risorsa primaria e fondamento dei risultati della ricerca scientifica, si sono individuate le specificità che la caratterizzano nel settore delle scienze umane. L'attenzione rivolta ai research data nelle politiche europee ne conferma il ruolo strategico per lo sviluppo e l'ottimizzazione del sistema della ricerca. L'osservazione di alcune realizzazioni di infrastrutture e progetti dedicati ai research data nelle discipline umanistiche, mostra l'importanza del ruolo degli Stati nel definire politiche volte a potenziare e valorizzare tali sistemi, per rendere efficienti le singole iniziative e limitare la disomogeneità, favorendo l'esistenza di sistemi facilmente individuabili, utilizzabili ed integrati tra loro. In questo contesto la posizione dell'Italia, fino ad oggi arretrata in relazione ai sistemi di raccolta, gestione, conservazione, condivisione dei dati risultanti dalla ricerca, sembra collocarsi in una prospettiva di sviluppo.
In the last years the interest in the study and monitoring of the Earth has been gradually growing, and many institutions have planned missions for these purposes. Synthetic Aperture Radar (SAR) is one of the most promising approaches to acquire images of every part of the world in short time. The characteristics that make the SAR a very powerful instrument are its capability to operate independently of weather conditions, at day and night, and to reach target that are inaccessible to ground measurement. There are many fields of interest for Earth Observation (both civilian and military), such as the detection and surveillance of ships or marine traffic, monitoring of agricultural fields, study of the winds in tropical storms and study of oceanic current, monitoring the damage caused by earthquakes, floods, tsunamis, inundation or other natural disasters, and more over. Natural disasters, in particular landslides, frequently affect our country, Italy. The hydrogeological risk is very high during rainy periods, and a space observation can be useful as support to civil protection in times of emergency, but also in the next phase of damage assessment. The knowledge of soil moisture behaviour is critical in different environmental and land activities; for example is the basis for prediction of river floods, rainfalls, avalanches and landslides. Given the link between specific soil parameters (such as moisture and surface roughness) and permittivity, it is possible to accurately measure these parameters with SAR data, starting from the measurements of the dielectric constant. The main problem is to separate the individual effects of the various parameters on the backscattered signal. However, this is possible using polarimetric data, in fact this data permits to minimize the effect of vegetation and surface roughness by using polarization ratios: combining cross- and co- polarizations ratios it can be possible to determine the soil moisture regardless of surface roughness. This research is funded by the Italian Space Agency in the framework of Cosmo-SkyMed Seconda Generazione project; it is focused on soil moisture retrieval by using polarimetric data. I analysed some Cosmo-SkyMed first generation polarimetric data (provided by courtesy of Italian Space Agency), in order to demonstrate the capability of the new generation of high resolution SAR system, and to suggest some possible upgrades or improvements for the new generation of ASI satellites.
La rivoluzione informatica ha avuto conseguenze enormi sullo sviluppo della città contemporanea. Al layer fisico della città si è andato via via sovrapponendo il layer immateriale dell'informazione, tanto che oggi qualsiasi discorso sulla città contemporanea non può prescindere da un discorso sulla connettività, le reti e i dati generati in questo nuovo ecosistema. Negli ultimi decenni tanto lo spazio fisico delle nostre città che quello informatico hanno seguito la traiettoria comune del modello neoliberista, all'insegna della privatizzazione. L'infrastruttura informatica, materiale e immateriale, è del tutto strategica e deve essere considerata come bene comune. Alcune città a livello mondiale hanno inserito nelle loro agende il diritto al digitale, la sovranità digitale e la democratizzazione dei dati. Anche il Comune di Roma, nell'ambito del Piano Smart City si sta dotando di una piattaforma per la raccolta, l'aggregazione e la condivisione dei dati generati nella città (Roma Data Platform). Sebbene si tratti di un passo importante nella direzione di una governance digitale equa, democratica e inclusiva, il rischio concreto è che la nuova piattaforma costituisca un vantaggio principalmente per le istituzioni e per le aziende private, e che i cittadini vengano lasciati indietro, beneficiandone - forse - in maniera passiva e indiretta. ; The information revolution has had enormous consequences on the development of the contemporary city. The immaterial layer of information has gradually been superimposed on the physical layer of the city, so much so that today any discourse on the contemporary city cannot ignore a discourse on connectivity, networks and data generated in this new ecosystem. In recent decades, both the physical space of our cities and the digital space have followed the common trajectory of the neoliberal model, under the banner of privatization. The IT infrastructure, tangible and intangible, is completely strategic and must be considered as a common good. Some cities around the world have included the right to digital, digital sovereignty and the democratization of data on their agendas. The Municipality of Rome, as part of the Smart City Plan, is also equipping itself with a platform for the collection, aggregation and sharing of data generated in the city (Rome Data Platform). Although this is an important step in the direction of equitable, democratic and inclusive digital governance, the real risk is that the new platform will benefit mainly institutions and private companies, and that citizens will be left behind, benefiting from it perhaps just passively and indirectly.
La diffusione delle tecnologie legate ai big data, cioè alla raccolta massiva di dati ed informazioni provenienti dalle più disparate fonti, induce a guardare alle realtà che ci circondano e ai mercati secondo modalità, per così dire rivoluzionarie, poiché pretendono di semplificare le procedure di analisi e di valutazione di qualsiasi evenienza fenomenica, in contrapposizione con le vecchie metodologie scientifiche improntate al principio di causalità. Questa tendenza fornisce una chiave di lettura che si basa su un semplice principio di aggregazione di dati per la definizione di trend economici, in grado di pilotare le strategie imprenditoriali delle aziende che si servano degli strumenti di ICT (Information and Communications Technology), ma non solo. L'intento di questo lavoro è quello di comprendere come i meccanismi legati allo sfruttamento dei big data possano essere impiegati dalle amministrazioni pubbliche per incrementare i livelli di efficienza nell'erogazione dei propri servizi e, sempre in quest'ottica, per perfezionare le strategie regolatorie. Gli stessi big data, intesi quale prodotto ineluttabile del ricorso alle nuove tecnologie informatiche e all'eversione digitale dell'Internet of Things, pongono non poche problematiche su due piani estremamente delicati e che in più occasioni si cercherà di analizzare simultaneamente, quali fossero le facce della stessa medaglia. Così, si parte spesso dallo strumentario posto a tutela della privacy degli individui per fornire degli spunti utili all'implementazione del vocabolario antitrust, il quale, inevitabilmente, deve essere preso in considerazione per comprendere l'evolversi delle classiche derive economiche di scala, calate, tuttavia, nella modernità dei sistemi multilaterali digitali. Sebbene di per sé l'utilizzo dei big data, per definizione, non sembri arrecare particolari insidie per la concorrenza, dal momento in cui i dati, accumulati in grandi volumi eterogenei, possano considerarsi dei beni fungibili pressoché illimitati, e, quindi, in grado di superare qualsiasi prova di sostituibilità, non pochi problemi possono scaturire in relazione al processo di estrazione di valore aggiunto da parte di chi detenga le strumentazioni tecniche, atte ad interrogare gli stessi. La comprensione dell'uso e, soprattutto, del riuso di mastodontiche quantità di dati per la creazione di conoscenza, utile a sfruttare un potere informativo in grado di affermare posizioni egemoniche nel mercato, diventa la chiave di volta per analizzare e combattere eventuali abusi da parte di operatori economici particolarmente aggressivi o che attuino attività di profilazione dei dati personali degli individui. La realizzazione di un "sistema di scatole nere", che tracci le attività ed i comportamenti dei consumatori o degli utenti che si servano di prodotti e servizi erogati sia da parte del settore privato sia di quello pubblico, si appresta a modellare criteri per la predizione delle scelte future che questi intendano compiere. La creazione, pertanto, di profili altamente dettagliati degli individui fa sì che l'offerta si modelli sulle preferenze espresse dagli stessi. Se da un lato ciò assicura l'ottimizzazione dal punto di vista dell'efficienza della produzione, andando incontro ai bisogni avvertiti e presagiti degli utenti, dall'altro testimonia anche degli inevitabili profili concernenti, talvolta, indebite interferenze nella tutela della riservatezza dei cittadini o, ancora, delle pratiche poche igieniche per il mantenimento della salubrità nel panorama competitivo del mercato. Molto spesso i due profili corrono di pari passo. Significa, cioè, che la creazione di pacchetti di dati inerenti gli aspetti più intimi della vita quotidiana di ciascuno – rischiando perennemente di scadere in una violazione della privacy, tanto da richiedere una continua evoluzione del contesto normativo comunitario e nazionale di riferimento – possano provocare lo scaturire di una serie di insidie latenti per la concorrenza: dallo svilimento dell'effetto del multi-homing delle piattaforme multiservizio, al perseguimento di pratiche di lock-in dei consumatori, da cui dipenda anche la perdita di potere contrattuale degli stessi, alla personalizzazione dei prezzi applicati. Queste riflessioni si basano principalmente sul discernimento degli effetti collaterali di un impiego piuttosto spregiudicato delle tecnologie in grado di analizzare ed interrogare, in maniera del tutto innovativa rispetto al passato, enormi dataset in continua espansione. Un ragionamento più ampio potrebbe investire l'individuazione di un mercato rilevante dei big data, nel momento in cui questi vengano considerati quali input (o, quanto meno, parti di input) di mercato. Ne consegue che, a voler adottare questa visione – non unanimemente condivisa, a dire il vero – al pari di quanto venga fatto per qualsiasi altro fattore in un sistema economico di scambio, si possano operare le classiche considerazioni sull'acquisizione di vantaggi provenienti dall'implementazione di economie di scala, scopo e velocità, tenuto conto delle specifiche caratteristiche dei big data. Ma anche a voler escludere una siffatta ricostruzione, parte della dottrina, come verrà evidenziato nel corso della trattazione, non è andata esente dal tracciare un ciclo dinamico di impiego e di estrazione di valore aggiunto dai big data. In questo si distinguono una serie di momenti e di intermediari economici in grado di suggere valore monetario dall'accesso e dall'analisi di banche dati interconnesse. Riconoscendo, dunque, l'attribuzione di un profitto legato al possesso di questo particolare vantaggio informativo, si crea, di conseguenza, una curva di domanda dei big data, che rinviene negli stessi, secondo determinate ricostruzioni (malviste dalla giurisprudenza europea e d'oltreoceano), particolari forme di barriere all'accesso al mercato. Reale punto cardine nella filiera dello sfruttamento dei big data e dei risultati di analisi inferenziale, ad essi riferiti, risiede nell'erogazione di apposite licenze che ne consentano l'impiego per usi secondari e pressoché infiniti che si aggiungono a quello iniziale per il quale gli stessi erano stati raccolti. Ciò consente che i metadati e le informazioni possano – in spregio, talvolta, alle garanzie assicurate dalle formule di consenso informato – divenire oggetto di mercificazione. Se, dunque, la "datificazione" del conosciuto e del conoscibile risulti essere la tendenza verso la quale si sta indirizzando il progresso sia tecnologico sia economico, non si può andare esenti dall'interrogarsi su quale debba considerarsi, invece, lo sviluppo dell'azione amministrativa in questo quadro evolutivo. Il ricorso all'IT rappresenta il nucleo fondamentale delle strategie, europea e nazionale, di digitalizzazione delle amministrazioni pubbliche. La creazione di un sistema di e-government rappresenta il primo passo verso una società improntata ai principi di inclusione digitale dei cittadini e di accesso elettronico ai servizi pubblici. Veicolo, questo, utile al perseguimento di tali obiettivi e che consiste nell'implementazione dell'interconnessione tra i sistemi informatici dei database pubblici attraverso il cloud computing. Tale processo contribuisce ad accrescere il volume dei dati in possesso del settore pubblico, da considerarsi già di per sé, anche al netto dell'impiego delle nuove tecnologie, il principale produttore di dati nel panorama nazionale. L'immenso patrimonio informativo pubblico, destinato costantemente ad espandersi in virtù della traduzione nella pratica delle strategie di crescita digitale, è sottoposto, tuttavia, a specifiche previsioni di trasparenza, che, nel loro complesso, compongono il più vasto quadro della disclosure regulation. L'intento che si intende perseguire nelle pagine seguenti è anche quello di comprendere come l'ottemperanza agli obblighi informativi da parte delle amministrazioni pubbliche partecipi alla trasformazione o, meglio, all'integrazione dell'e-government in un regime di Open Government. Ciò significa che i dati di provenienza pubblica debbano considerarsi "open" e, quindi, liberamente accessibili da parte di chiunque senza alcuna discriminazione. L'ubiquità della disclosure regulation trascende, inevitabilmente, gli scopi per i quali essa era stata realizzata e investe, con i flussi informativi che ne scaturiscono, il mercato. Da una rilevanza meramente interna di controllo sull'operato della pubblica amministrazione si passa a dover analizzare – in una prospettiva, invece, "esterna" - l'impatto che gli scambi di informazioni abbiano nelle dinamiche concorrenziali tra gli operatori economici. Comprendere come la regolazione in materia di trasparenza travalichi i confini propri dell'azione amministrativa fornisce lo spunto, anche, per riflettere sugli aspetti che ne determinano la fallacia. Fintanto che i dati e le informazioni di provenienza pubblica, resi ostensibili e riutilizzabili per fini commerciali nel mercato, risultino essere semplicemente oggetto di regolazione, non si possono apprezzare i vantaggi che potrebbero scaturire dalla manipolazione degli stessi. I risultati dell'analisi inferenziale, ottenibili grazie al ricorso ai dispositivi di big data analytics, possono fungere da propulsore per il rinnovamento, almeno in termini di principio, dell'intervento regolatorio, permettendo, così, un'azione più rapida, efficiente e mirata. I big data, diventano, ovvero, strumento di regolazione.