Uno dei più seri problemi della conservazione delle collezioni librarie è il rapido degrado della carta moderna dovuto alla acidità della carta. Esso investe gran parte del patrimonio archivistico e bibliotecario costituitosi nel corso del XIX secolo e nella prima metà del XX. Il fenomeno è imputabile ai materiali e ai procedimenti di fabbricazione introdotti nelle cartiere a partire dalla metà del diciannovesimo secolo ma anche a fattori esogeni quali i gas inquinanti e le errate modalità di conservazione. Tutti inducono degradazione acida accelerando esponenzialmente il decadimento delle resistenza meccanica della carta.Il problema della carta acida, già evidenziatosi sul finire del XIX secolo, è stato studiato nei suoi diversi aspetti a partire dalla fine degli anni '50. Circa il 70% dei materiali presenti presso le biblioteche e gli archivi italiani presenta un eccessivo grado di acidità. Un'alta percentuale dei materiali inoltre è ormai resa talmente fragile da non poter trarre alcun vantaggio da interventi di deacidificazione o restauro.In alcuni istituti si sceglie di lasciare gli originali al loro destino, dopo averne approntato una copia analogica, su microfilm, o digitale. Poiché questa scelta non può essere affrontata per tutto il materiale a rischio, si può cercare di prolungare la fruibilità quantomeno di una parte dei documenti minacciati tramite la tecnica denominata deacidificazione di massa, applicata a interi blocchi di volumi integri, senza smontaggio delle legature.Essa prevede l'impregnazione del materiale, precedentemente disidratato, con un agente deacidificante in grado di neutralizzare gli acidi presenti e di creare una riserva alcalina che, depositandosi sulle fibre della carta, possa tamponare le reazioni acide future.Sul mercato sono ormai disponibili vari sistemi commerciali brevettati per la deacidificazione di massa dei materiali librari. Numerose sono le esperienze condotte a termine, sui risultati delle quali ci si può basare per valutare l'opportunità dell'adozione di tale procedimento. Tuttavia tra gli addetti alla conservazione delle collezioni librarie il dibattito sull'opportunità dell'impiego di tale tecnica è tuttora in corso. Le principali obiezioni si riferiscono ad una certa invasività dell'intervento, alla incompleta standardizzazione dei test sull'efficacia del trattamento, alla complessità delle attrezzature necessarie e ai costi elevati che lo caratterizzano.Tutto ciò ha fatto sì che nel nostro paese non si sia giunti alla definizione di linee condivise di intervento. L'articolo presenta le esperienze di alcuni altri paesi in cui sono state adottate al riguardo politiche di intervento su scala nazionale, mentre altri paesi ancora hanno scelto un approccio sperimentale saggiando le diverse possibilità di intervenire sul problema. ; One of the major preservation problems in modern libraries is the accelerated rate of decay of modern paper due to its exceeding acidity. The problem of the acid decomposition of paper concerns the majority of library and archival collections of 19th and of the first half of 20th century. The phenomenon was brought about with the beginning of industrial paper production and is to be ascribed to the components and techniques introduced from the middle of 19th century, but also air pollutants and unsuitable storage conditions can greatly affect the paper decay rate.The acidic paper problem was already known at the end of 19th century, but has been studied in its different aspects only from the late fifties on. About 70% of library and archival materials in Italy is exceedingly acidic. Besides it, an high percentage of library stocks is heavily damaged and no more susceptible of any deacidification or conservation treatment. Some institutions choose not to treat the damaged originals and to substitute them with a microfilm or digital copy. Obviously these measures cannot be applied to all the endangered materials. The technique called mass deacidification, for bulk treatment of books and archival materials without disbinding, can offer a chance to extend the suitable life of the originals. Normally, after the pre-drying of the books, they are impregnated with an alkaline agent which neutralises the acids in the paper, and an alkaline buffer is inserted, so that to protect it against any further formation of acids. There are nowadays several commercial methods for the mass deacidification of library and archival materials. Several experiences have been accomplished, and the results of them could form the basis for the evaluation of the opportunity of adopting a mass deacidification program. Nevertheless among the curators and conservators in charge of preservation management the debate is still open. The outlined disadvantages refer to some damages to materials, incomplete standardization on quality control tests, complexity of equipments and high costs. The amount of this factors led our country to lack a shared program of intervention. The author intends to introduce the experience of some countries which adopted national programs of mass deacidification or a limited and experimental approach in order to evaluate the different methods of intervention.
La crescente attenzione alla tematica dei metadati testimonia l'attuale tendenza del Web ad evolvere verso una forma più adeguata alla comunicazione scientifica, strutturata in modo tale da permettere il reperimento di informazioni "pertinenti" e tutelate dal punto di vista dell'autenticità e della sicurezza. Ci si orienta cioè verso un'informazione "di qualità", le cui caratteristiche possono essere definite da quattro parole chiave: strutturata, arricchita da metadati, aggiornata, certificata.L'articolo intende focalizzare l'attenzione sui metadati, intesi come nodo di svincolo decisivo di questa fase evolutiva del Web, in cui si saldano gli interessi degli specialisti dell'informazione per la strutturazione e la standardizzazione dei dati e quelli "economici" di chi sulla rete propone beni e servizi. Pur essendo impossibile passare in rassegna tutte le esperienze in corso in questo settore, esso intende esporre le conoscenze e gli spunti di riflessione emersi dal lavoro del gruppo in relazione ad alcuni casi di applicazione concreta di metadati: l'ipotesi di digitalizzazione degli atti parlamentari italiani, la creazione di metadati a corredo degli atti parlamentari già in formato digitale, la creazione di metadati specifici per la normativa, nell'ambito del progetto "Norme in rete".I metadati consentono, infatti, di svolgere, più agevolmente e con maggiore precisione, le tre attività di base che un sistema informativo deve garantire: identificazione, fruizione e conservazione delle risorse elettroniche. Sebbene tutte le risorse presenti sul Web siano corredate in qualche modo da metadati, non esiste però l'omogeneità e l'uniformità ormai tradizionali nel mondo dell'informazione analogica (dalla forma di presentazione dei documenti alla catalogazione); d'altra parte le risorse digitali presentano una complessità e una varietà ben maggiore, e il problema fondamentale della standardizzazione si pone quindi in maniera del tutto nuova. La ricerca procede secondo due direttrici complementari: una consiste nello strutturare degli insiemi omogenei di metadati, anche complessi, finalizzati ad applicazioni e progetti specifici e quindi destinati a un ambito definito di risorse digitali; l'altra mira a sviluppare uno standard a diffusione universale, molto semplice e basato sul principio della descrizione da parte dell'autore. L'obiettivo ultimo è quello della interoperabilità. Da un lato questa viene perseguita curando la compatibilità dei set specifici con lo standard, in modo da poter elaborare delle mappature tra set diversi e anche con standard di descrizione tradizionali. Dall'altro, data la complessità di alcuni sistemi informativi, si ammette la presenza, relativamente alle stesse risorse, di set diversi e per funzioni ( ad es. uno per la descrizione del contenuto, uno per la conservazione) e per complessità (a una descrizione rapida può essere poi affiancata una più completa) e si studiano accorgimenti per ospitarli in un'architettura comune.Particolare attenzione viene dedicata al Dublin Core, uno standard tendenzialmente universale, caratterizzato da un numero limitato di elementi definiti attraverso una una semantica chiara e universalmente comprensibile e teso a garantire l'interoperabilità con altri standard e strumenti per la ricerca delle risorse in rete. L'articolo fa il punto sullo stato della discussione relativo allo sviluppo degli elementi del set e dei loro qualificatori al fine di soddisfare le esigenze più specifiche di diverse comunità di utenti, libere altresì di utilizzare la sintassi ritenuta più opportuna. Se il Dublin Core può proporsi come modello per la "semantica" dei metadati, interessanti sviluppi possono invece provenire per quanto riguarda la "sintassi", dall'adozione del modello RDF (Resource Description Framework), che, sfruttando le potenzialità del linguaggio XML, propone un approccio basato sul concetto di relazione tra dati e metadati.Altri interessanti spunti di riflessione provengono dalla estesa e sempre più avvertita problematica della conservazione delle risorse elettroniche, sia per quanto riguarda il tema della permanenza dell'accesso, sia per quanto attiene alla garanzia di autenticità dei dati. Nel tracciare un quadro delle principali strategie di conservazione delle risorse elettroniche viene posto in evidenza il ruolo che i metadati ricoprono all'interno di queste ultime: sia nella strategia cosiddetta di "migrazione dei dati" che, in modo particolare, in quella basata sull'emulazione, essi costituiscono un tentativo strutturato di descrivere i requisiti per la gestione a lungo termine dei documenti elettronici.Un cenno particolare è riservato al modello OAIS (Open Archival Information System) sviluppato appositamente per rispondere all'esigenza della conservazione a lungo termine delle risorse digitali: esso, benchè originato nel mondo della ricerca scientifica, è di grande interesse per chiunque produca e intenda conservare risorse elettroniche: esso propone una visione dinamica dei metadati per la conservazione, visti come parte integrante di un AIP (Archival Information Package), costituito dalla risorsa digitale intrinsecamente collegata ai suoi metadati. Diversi progetti di ambito bibliotecario, quali il CEDARS e il NEDLIB stanno attualmente sviluppando parti del modello OAIS nell'ambito di progetti che includono anche la sperimentazione della strategia dell'emulazione. ; The growing attention to metadata is evidence of the current trend of the World Wide Web to evolve towards forms more suited to scientific communication. This would be structured in such a way as to allow the retrieval of relevant information that is safeguarded from the point of view of its authenticity and security. We can therefore say that the trend is towards "quality information", which can be defined by four key words: structured, enriched by metadata, updated, certified.The article means to focalize attention on metadata, taken as a decisive clearance junction of this evolutionary phase of the Web, in which the interests of the specialists of information for the structuring and standardization of data and the "economic" interests of those who offer commodities and services on the net are united. While it is impossible to examine all the current experiences in this sector, it intends expounding the information and occasions for reflection that emerged from the work of the group in relation to some cases of actual application of metadata: the digitalization of Italian parliamentary papers, the creation of metadata to integrate parliamentary papers already in digital form, the creation of specific metadata for legislative provisions, within the sphere of the project Norma in rete (Regulations on the Internet).The metadata actually make it possible to more easily and precisely carry out the three basic activities that an information system must ensure: identification, use and conservation of electronic resources. Although all the resources present on the Web are provided in some way with metadata, there is a lack of the homogeneity and consistency that are by now usual in the world of analogic information (from the form of presentation of the documents to cataloguing); on the other hand digital resources offer a much greater complexity and variety, and therefore the fundamental problem of standardization is presented in a completely new way. The research proceeds according to two complementary guiding principles: one consists in structuring homogenous, even if complex, sets of metadata, aimed at specific applications and projects and therefore addressed to a definite area of digital resources; the other aims at developing a standard for universal diffusion. This would be very simple and based on the principle of description by the author. The ultimate objective is that of interoperability. On the one hand this is pursued by paying special attention to the compatibility of specific sets with the standard, in such a way as to be able to map different sets and even traditional description standards. On the other, because of the complexity of some information systems, the presence, with regard to the resources themselves, of different sets by function (e.g., one for the description of the contents and one for preservation) and by complexity (a rapid description can then be followed by a more complete one) is allowed, and devices for hosting them in a common architecture are being studied.Particular attention is devoted to the Dublin Core, a tendentially universal standard, characterized by a limited number of elements defined through clear and universally intelligible semantics and prepared for ensuring interoperability with other standards and tools for the search of online resources. The article sums up the state of the discussion regarding the development of the elements of the set and their descriptors in order to satisfy the most specific requirements of different communities of users, which are likewise free to use the syntax deemed most opportune. If the Dublin Core can be offered as a model for the "semantics" of the metadata, there can also be interesting developments as regards the "syntax" from the adoption of the RDF (Resource Description Framework) model which, by exploiting the potential of the XML language, proposes an approach based on the concept of relation between data and metadata.Other interesting occasions for reflection come from the extensive and increasingly felt problem of the preservation of electronic resources, both with regard to the permanence of access and the guarantee of authenticity. In outlining the main strategies for preservation of electronic resources, the role that metadata play within these latter is emphasized: both in the so-called "migration" strategy and, especially, in the "emulation" strategy, they constitute a structured attempt to describe the requirements for the long-term management of electronic documents.A special mention must be made of the OAIS (Open Archival Information System) model, developed especially to respond to the requirement of long-term preservation of digital resources. Although originated from the world of scientific research, it is of great interest for anyone who produces and means to preserve electronic resources. It offers a dynamic vision of the metadata for conservation, seen as an integral part of an AIP (Archival Information Package), formed from the digital resource that is intrinsically linked to its metadata. Different projects of the library area, such as CEDARS and NEDLIB are currently developing parts of the OAIS model within projects that also include testing of the emulation strategy.