Summary Nowadays, research without a role for digital data and data analysis tools is barely possible. As a result, we see an increasing interest in research data management, as this enables the replication of research outcomes and the reuse of research data for new research activities. Data management planning outlines how to handle data, both during research and after the research is completed. Trusted data repositories are places were research data are archived and made available for the long term. This article covers the state of the art concerning data management and data repository demands with a focus on qualitative data sets.
The article examines research data practices in the Humanities within the European area.The great attention paid to research data in European policies on research confirms their strategic role in the development and optimization of the scientific research.The analysis of some research infrastructures and projects focused on research data in the Humanities shows how the European Member States can act centrally in improving and developing them, in order to make efficient individual activities and to reduce the lack of homogeneity, and to support the presence of easily identifiable, usable and integrated systems. ; L'articolo indaga il tema dei research data nell'ambito delle discipline umanistiche, in area europea. Definendo tale tipologia di dati come risorsa primaria e fondamento dei risultati della ricerca scientifica, si sono individuate le specificità che la caratterizzano nel settore delle scienze umane. L'attenzione rivolta ai research data nelle politiche europee ne conferma il ruolo strategico per lo sviluppo e l'ottimizzazione del sistema della ricerca. L'osservazione di alcune realizzazioni di infrastrutture e progetti dedicati ai research data nelle discipline umanistiche, mostra l'importanza del ruolo degli Stati nel definire politiche volte a potenziare e valorizzare tali sistemi, per rendere efficienti le singole iniziative e limitare la disomogeneità, favorendo l'esistenza di sistemi facilmente individuabili, utilizzabili ed integrati tra loro. In questo contesto la posizione dell'Italia, fino ad oggi arretrata in relazione ai sistemi di raccolta, gestione, conservazione, condivisione dei dati risultanti dalla ricerca, sembra collocarsi in una prospettiva di sviluppo.
Open Science is the new keyword in scientific research: sharing data and results to increase the quality, impact, and benefits of science. Sharing accelerates the advancement of knowledge by making it more reliable, more efficient, and more accurate. This process also improves usability and understanding by the society. This is affirmed by the European Union and this is what is required in the management of data and knowledge that is produced in projects funded by Europe. This approach has been fully implemented within the RaCHy (Radiotherapy Coupled with Hyperthermia) European project to which the National Centre for Radiation Protection and Computational Physics of the Italian National Institute of Research (ISS) participates. The management of Open Science aspects in the RaCHy project was developed by the ISS project unit using the Zenodo platform, one of the possible solutions for the dissemination and reusability of research data over time. There are rules and guidelines to be implemented and followed both in the sharing of data within the project and in the way in which the data produced are then available to the scientific community and society. Creative Commons Attribution - Non-commercial - No derivative works 2.5 Italy License ; Creative Commons Attribution - Non-commercial - No derivative works 2.5 Italy License
Librarian data stewards can propose an update of the SA 8000 standard by integrating as a crosscutting requirement the data stewardship for open science based on the European FAIR data guidelines and the GDPR directives for open data, pursuing the Agenda 2030 targets: Target 4.6 "Ensure that all youth and a substantial proportion of adults, both men and women, achieve literacy and numeracy"; Target 16.6 "Develop effective, accountable and transparent institutions at all levels"; Target 16.10 "Ensure public access to information and protect fundamental freedoms, in accordance with national legislation and international agreements".In the evolution of IoT (internet of things) related apps and tools, data driven algorithms are crucial. We therefore speak of IoD (internet of data) as a source for the experimental development of integrated and innovative applications in the environmental and energy services field, the healthcare sector, and also in the context of Smart Cities. For a correct and transparent management of the micro and macrosystemic information flow it becomes essential to share and aggregate different and interoperable sources.The librarian as data steward has the task of promoting cultural change towards shared research, acting on those who produce and reuse data. To this end, it is necessary to facilitate the technology transfer necessary for open science, through the synergy between stakeholders and data producers. ; I data steward bibliotecari possono proporre un aggiornamento dello standard SA 8000 integrando come requisito trasversale la 'data stewardship per la scienza aperta' basata sui principi dei FAIR data e i dettami del GDPR per gli open data, perseguendo i traguardi dell'Agenda 2030 delle Nazioni unite: Traguardo 4.6 "Assicurarsi che tutti i giovani e una parte sostanziale di adulti, uomini e donne, raggiungano l'alfabetizzazione e l'abilità di calcolo"; Traguardo 16.6 "Sviluppare istituzioni efficaci, responsabili e trasparenti a tutti i livelli"; Traguardo 16.10 "Garantire l'accesso del pubblico alle informazioni e proteggere le libertà fondamentali, in conformità con la legislazione nazionale e con gli accordi internazionali".La data stewardship in ambito scientifico oltrepassa la semplice accessibilità e usabilità del dato, puntando a nuovi livelli di interoperabilità con nuovi sistemi e piattaforme.Nell'evoluzione di app e strumenti legati all'IoT (internet of things o internet delle cose) sono determinanti algoritmi alimentati dai dati. Si parla quindi di IoD (internet of data) come fonte per lo sviluppo sperimentale di applicazioni integrate e innovative nel campo ambientale, sanitario, energetico, con implementazioni anche nelle smart city. Per una corretta e trasparente gestione del flusso informativo microsistemico e macrosistemico diviene indispensabile condividere e aggregare fonti diverse e interoperabili.Il bibliotecario come data steward ha il compito di promuovere il cambiamento culturale verso la ricerca condivisa, agendo su chi produce e su chi riusa i dati. Per questo obiettivo serve agevolare il trasferimento tecnologico necessario per la scienza aperta, tramite la sinergia tra stakeholder e produttori di dati.
Data analysis in qualitative research: 'Help! I'm drowning in my data' Some researchers collect data so enthusiastically that they panic when confronted with the amount of data. How should they tackle the analysis? In mutual discussion, the authors show in seven tips how the qualitative analyst systematically attacks the data monster.
The thesis provides an empirical analysis relative to the estimation of the effects of fiscal policy on GDP. The research is conducted through the the study of the causal relationships that emerge from the implementation of some Structural Vector-Autoregressive models, which are estimated with U.S. time series data. Although Fiscal multipliers are the important tools that are able to capture the effect on GDP of one dollar spent by the State in increasing government expenditure or in reducing Taxation, economists until now have not reached a consensus about their size (and even their sign). For this reason one of the main topic on which the thesis is concentrated is the computation of fiscal multipliers. Three are the main innovative aspects of the work, respect to the literature of the empirical fiscal studies. The first one is the data-driven approach that characterises all the aspects of the work. In particular, differently from the majority of researches in the literature, the "identification" of fiscal shocks relies completely on a data-driven procedure (The Independent Component Analysis). This important innovation permits to detect the causal effects of fiscal policy relying exclusively on the properties of the data, avoiding in this way the imposition of some restrictions that are driven by some ex-ante economic knowledge. The second point of differentiation from a standard fiscal SVAR analysis is the completely new interpretation of what is called a "fiscal shock". The Fiscal shock is considered in the work as a unique mixture of exogenous and interrelated measures on Taxes and Government expenditure at the same time. In fact, given the evidence of some recent studies about how the fiscal policy is practically designed and implemented, the common assumption about the existence of two separate and independent fiscal shocks, one on taxes and one on government expenditure, is rejected in this work. Finally the results of government expenditure and Tax multipliers computed in the data-driven environment of the work result to be positive (Government expenditure also above the unity) and even persistent 2 years after the shock, something that is not very common in the literature.
Si sente sempre più parlare di oggetti intelligenti, in grado tra le altre cose di acquisire ed elaborare dati, con l'intrinseca capacità di connessione, che rende possibile il trasporto dell' informazione raccolta. Questo fenomeno coinvolge, quindi, inevitabilmente la protezione dei dati personali oltre che problemi crescenti in termini di sicurezza. Le conseguenze dell'uso "trasformativo" dei dati personali ha drasticamente limitato la consapevolezza dei consumatori, la loro capacità di valutare le varie conseguenze delle loro scelte e, quindi, di dare un consenso libero e informato. Per rispondere alle nuove esigenze, dunque è stato necessario partire dai principi alla base delle protezione dei dati, come quelli dello scopo specifico, della minimizzazione dei dati, del "notice and consent" ecc. - a cui vanno aggiunte le varie tecniche di anonimizzazione - per poi re-interpretarli alla luce del dinamismo e della complessità caratterizzante il nuovo contesto. Si arriva a sostenere che la soluzione più adatta deve prevedere l'azionamento di meccanismi di trasparenza e accountability, oltre che di architetture orientate alla protezione dei dati (come ad esempio la "privacy by design"). Il nuovo modello dovrà così basarsi sulla valutazione dei rischi del trattamento di dati, effettuata da terze parti sotto la supervisione di autorità di protezione di dati. Al consumatore rimane solo la possibilità di esercitare o meno il diritto di uscita (modello opt-out). Inoltre, i dispositivi operanti in IoT hanno caratteristiche e risorse – energetiche e di potenza di calcolo- non adatte per affrontare problemi di sicurezza. Questo ha portato alla nascita e espansione di attacchi anche verso le "cose intelligenti". Per affrontare questo tipo di problema si devono sviluppare meccanismi di responsabilità tra i vari stakeholders del contesto IoT, incentivando un atteggiamento proattivo, che prevede la valutazioni di sistemi di sicurezza in toto e l'allineamento con standards di sicurezza riconosciuti a livello internazionale. Rimane comunque la convinzione che non esiste, ad oggi, una soluzione a questi tipi di problemi. Infatti, sono ancora aperti i dibattiti, che prevedono la partecipazione di più stakeholders, sull'adozione di un framework legislativo unico, che tenga conto delle esigenze di tutti.
De KNAW en NWO hebben samen een nieuw instituut opgericht waar onderzoekers na afloop van hun project alle data en andere documentatie over hun project kunnen deponeren, zodat andere onderzoekers daar weer hun voordeel mee kunnen doen. Daarmee wordt gevolg gegeven aan de Verklaring van Berlijn waarin in 2003 het principe van Open Access werd uitgeroepen: wetenschappelijk materiaal moet vrijelijk aan iedereen beschikbaar worden gesteld via internet; wetenschap is voor iedereen.
Le linee guida nazionali per la valorizzazione del patrimonio informativo pubblico 2016 recano le indicazioni dell'Agenzia per l'Italia digitale relative all'attuazione della politica di open data. In un contesto caratterizzato dalla scarsa attenzione dei governi per la programmazione e il monitoraggio di questa politica, le nuove indicazioni incidono più sugli aspetti tecnici che su quelli organizzativi del processo di apertura delle basi dati detenute dalle pubbliche amministrazioni. Eppure, gli aspetti organizzativi costituiscono l'ambito su cui è necessario intervenire per conseguire i benefici che gli organismi internazionali associano agli open data. In questo modo l'apertura delle basi dati risulta essere ancora estranea alla politica di trasparenza amministrativa, restando una appendice isolata della politica di digitalizzazione.
Questo lavoro, partendo da una definizione ampia del termine "corruzione", intesa come il generico abuso da parte di un soggetto del potere a lui affidato per ottenere vantaggi privati, si propone di indagare il potenziale delle ICT nella promozione della trasparenza e, quindi, nella lotta alla corruzione. La tesi, dopo aver fornito un inquadramento generale del fenomeno corruttivo e aver presentato la situazione italiana in termini di corruzione percepita e di interventi portati avanti dallo Stato per favorire la legalità, espone alcuni contributi della letteratura che evidenziano una significativa correlazione statistica tra applicazione dell'e-government e riduzione della corruzione. Vengono quindi presentati i più importanti risultati riportati dall'Italia in materia di open government e open data e vengono infine segnalate le difficoltà che il nostro Paese deve ancora affrontare.