In der vorliegenden Arbeit werden nach einer kurzen Beschreibung des Mikrozensus 1996 und weiteren Informationen zur Prüfung der faktisch anonymisierten Daten die einzelnen Schritte der Datenaufbereitung beschrieben. Die Darstellung der Datenaufbereitung bezieht sich auf den faktisch anonymisierten Gesamtfile (Scientific Use File). Die Dokumentation zum Mikrozensus 1996 umfasst Informationen zur Abgrenzung und Hochrechnung der Bevölkerungsbegriffe, Hinweise auf die Plausibilitätsprüfung und Anmerkungen zur Randverteilung des faktisch anonymisierten Mikrozensus 1996. Die Datenaufbereitung umfasst die Plausibilitäts- und Validitätsprüfung, das Erstellen des endgültigen Systemfiles mit Recodierungen, die Definition von Missings sowie die Formattransformationen und Variable-/Value-Labels. (ICI)
In der vorliegenden Arbeit werden nach einer kurzen Beschreibung des Mikrozensus 1997 und weiteren Informationen zur Prüfung der faktisch-anonymisierten Daten die einzelnen Schritte der Datenaufbereitung beschrieben. Die Dokumentation zum Mikrozensus 1997 umfasst eine Plausibilitätsprüfung durch einen Vergleich des aufbereiteten Datensatzes mit den vom Statistischen Bundesamt veröffentlichten Tabellen in den so genannten Fachserien. Es wird ferner die Randverteilung des faktisch-anonymisierten Mikrozensus 1997 beschrieben. Die Datenaufbereitung bezieht sich auf den faktisch-anonymisierten Gesamtfile (Scientific Use File) und umfasst z.B. das Einlesen der Rohdaten, das Erstellen eines SPSS-Systemfiles mit Recodierungen, die Definition von Missings, die Formattransformationen und Variable-/Value-Labels sowie eine Plausibilitäts- und Validitätsprüfung. (ICI)
Der Mikrozensus (MZ) ist eine repräsentative 1-Prozent-Bevölkerungsstichprobe, die für das Jahr 1998 Informationen zu bevölkerungs- und arbeitsmarktstatistischen Strukturdaten von ca. 730.000 Personen in 330.000 Haushalten umfasst. Die Datenerhebung durch die Statistischen Bundesämter erfolgt im Regelfall mündlich, ein kleiner Teil mittels schriftlicher Auskunft der Befragten. Das stichprobenmethodische Grundkonzept des MZ ist die einstufige Klumpenstichprobe. Neben dem gleichbleibenden Grundprogramm zu sozioökonomischen Grundinformationen enthält der MZ 1998 zusätzliche Angaben zu Gebäudemerkmalen und der Wohnsituation. Die Ausführungen basieren auf einer faktisch-anonymisierten 70-Prozent-Substichprobe des MZ 1998. Für die faktisch-anonymisierte Substichprobe (Scientific Use File) gilt, dass sie in systematischer Zufallsauswahl aus dem Originalmaterial des Statistischen Bundesamtes gezogen wird. Vor dem Hintergrund dieser Kurzbeschreibung des MZ 1998 werden hier die einzelnen Schritte der Datenaufbereitung dargestellt. Die Aufbereitung des Scientific Use Files gliedert sich in zwei Arbeitsabläufe: (1) Einlesen der Rohdaten, Erstellen eines SPSS-Systemfiles mit Recodierungen, Definition von Missings, Formattransformationen und Variable-/Value Labels sowie (2) Plausibilitäts- und Validitätsprüfung. (ICG2)
Der Mikrozensus (MZ) ist eine repräsentative 1-Prozent-Bevölkerungsstichprobe, die für das Jahr 2000 Informationen zu bevölkerungs- und arbeitsmarktstatistischen Strukturdaten von ca. 719.000 Personen in 329.000 Haushalten umfasst. Die Datenerhebung durch die Statistischen Bundesämter erfolgt im Regelfall mündlich, ein kleiner Teil mittels schriftlicher Auskunft der Befragten. Das stichprobenmethodische Grundkonzept des MZ ist die einstufige Klumpenstichprobe. Neben dem gleichbleibenden Grundprogramm zu sozioökonomischen Grundinformationen enthält der MZ 2000 zusätzliche Angaben zur beruflichen Ausbildung, Pendlereigenschaft bzw. -merkmale, Zusatzangaben für Ausländer und Erwerbstätigkeit. Die Ausführungen basieren auf einer faktisch-anonymisierten 70-Prozent-Substichprobe des MZ 2000. Für die faktisch-anonymisierte Substichprobe (Scientific Use File) gilt, dass sie in systematischer Zufallsauswahl aus dem Originalmaterial des Statistischen Bundesamtes gezogen wird. Vor dem Hintergrund dieser Kurzbeschreibung des MZ 2000 werden hier die einzelnen Schritte der Datenaufbereitung dargestellt. Die Aufbereitung des Scientific Use Files gliedert sich in zwei Arbeitsabläufe: (1) Einlesen der Rohdaten, Erstellen eines SPSS-Systemfiles mit Recodierungen, Definition von Missings, Formattransformationen und Variable-/Value Labels sowie (2) Plausibilitäts- und Validitätsprüfung. (ICG2)
Zugleich gedruckt veröffentlicht im Universitätsverlag der TU Berlin unter der ISBN 978-3-7983-2587-6. ; Die Evaluierungs-"toolbox" Eva.S dient als Instrument für Projektentwickler, zur Umsetzung von Projektideen und Networking in Praxis und Forschungsförderung zur Verarbeitung von komplexen Datenmengen. Eva.S ist ein nicht projektgebundenes Evaluierungs-System mit vielfältiger prozessorientierter Anwendung und kompetenter Kommunikation der Ergebnisse. Die angewandte Strategie zur Evaluierung mit den wirkungsbezogenen sogenannten "Indicator values" sind von großer Relevanz und weitgehend akzeptiert auf dem Gebiet Planung, Konstruktion und dem prozessorientierten Monitoring, um schon frühzeitig den "Zielerreichungsgrad" eines Projektes verfolgen zu können. Die wirkungsbezogenen "Indicator values" sind die Basis für die Projektarbeit im Netzwerk, die Visualisierung und das Verstehen komplexer Vorgänge in der Projektentwicklung und dem Fortschritt. Es gibt auf dem internationalen Markt viele Evaluierungs- und Monitoringsysteme wie z.B. BNB/DGNB, BREEAM, LEED, African Green City Index (GCI), Asian GCI, European GCI, ESTIDIMA (Pearls), GREEN Pyramids etc.; das neu entwickelte Eva.S Evaluierungs-System führt in einem sorgfältigen Abwägungsprozess alle für das eigene zu evaluierende Projekt wichtigen Faktoren und Indikatoren aus den international anerkannten Verfahren zur Bewertung von Bauwerken hinsichtlich Flächenmanagement und der sozio-kulturellen Problematiken zusammen. Die Eva.S Evaluierungs-"toolbox" stellt sich der Herausforderung einer erfolgreichen auf das jeweilige Projekt zugeschnittene Projektentwicklung, Erfassung der Auswirkungen und dem Management des Fortschrittes. Erforderlich ist eine international anerkannte Evaluierungs-Strategie, um ein der jeweiligen Situation und den baulichen Begebenheiten angemessenes wissenschaftliches Monitoring zu ermöglichen. Einsatz und Überprüfung von qualitativen und quantitativen wirkungsbezogene Indikatoren zur Erfassung und Bewertung der von den Projektteilnehmern geplanten und umgesetzten Maßnahmen wurden erstmalig mit Eva.S in dem Young Cities Projekt ermöglicht. Mit diesem Vorgehen war gleichzeitig ein "Rating" mit Noten von 1-10 (1 = sehr gut; 10 = schlecht) der geplanten und vorgenommenen Maßnahmen von Anfang an möglich. Parallel zu den einzelnen Arbeitsabschnitten des Young Cities Projekts wurde mit den Elementen des Eva.S zur ersten Datenerfassung, der Bewertung und schließlich zur Visualisierung in Diagrammen begleitet und ständig in der Rückkopplung über Eva.S Anwendung in fünf Arbeitsschritten optimiert: Datenerfassung, Datenorganisation in Matrizes und Indikatoren Formate, Eingabe in das Eva.S System zum Aufbau einer Datenbank, Überprüfung der Daten durch einen Eva.S "Prozessor" hinsichtlich der klassischen Qualitäten der Nachhaltigkeit (Ökonomie, Ökologie, Soziales), Bestimmung der projektbezogenen Indikatoren, Monitoring und Entscheidungs-Schleife zur Generierung der Ergebnisse einschließlich "Rating" und Zielerreichungsgrad sowie Kommunikation der Ergebnisse. Die Projektentwicklung endet nicht mit der Implementation, sondern es findet immer wieder eine Rückkopplung statt hinsichtlich der Evaluierungs- und Monitoringstrategien unter kritisch analytischer Betrachtung der Arbeitsabläufe und des "Ratings". Im Ergebnis der Bewertung lässt sich ein Handlungsbedarf ableiten. Das Eva.S Evaluierungs-System war im Rahmen des Young Cities Projekts zur projektinternen Evaluierung entwickelt worden. Eva.S wurde aber von Anfang an so gestaltet, dass auch andere Anwendungen und Projekte zu bearbeiten sind. Es wurden erste Probeläufe mit Daten-Sätzen des in sich abgeschlossenen REFINA Projekt zum Flächenmanagement erfolgreich durchgeführt. Die Eva.S Datenbank hat für das Young Cities Projekt 135 Datensätze verteilt auf 26 Dimensions für 3 Handlungsfelder (Field of Actions - FoA) und 25 Arbeitspaketen (Work Packages - WP) verarbeitet und verwaltet. Das Eva.S Evaluierungs-System arbeitet barrierefrei im Open Source / Microsoft Modus, die Daten werden über ein Drop-Down Menu eingespeist. Die Eva.S Projektdaten werden mittels projektspezifischen qualitativen und quantitativen Indikatoren nach den 3 klassischen Säulen der Nachhaltigkeit (Ökonomie, Ökologie, Soziales) bewertet. Der Teil Risikoanalyse im Eva.S Evaluierungs-System wurde in Anlehnung an die Ergebnisse einer MORIX Machbarkeitsstudie entwickelt und in Probeläufen im "feed back" überprüft und weiter optimiert. Das Eva.S Evaluierungs-System hat ein hohes Potential in der Anwendung als Prüfsystem in der Projektentwicklung, im Projektmanagement und bei der Entwicklung geeigneter Monitoring Strategien. Eva.S ist eine web-basierte Anwendung und hat über eine Internet Adresse http://yc.liebrenz.info/refina/index.php jederzeit einen weltweiten Zugriff zur Daten-Eingabe, Bewertung und Visualisierung. Ein Trainingsprogramm für Anwender von Eva.S aus den Bereichen Projektentwicklung und politischer Entscheidungsfindung ist in Vorbereitung. ; The evaluation tool Eva.S serves as an instrument for project developer and project participants to handle and present their overall results in a clear and manageable way. Because of the numerous projects and possibilities of Eva.S and its multiple applications and visualization of the processes for interpretation and competent communication to public the indicators values and the investigated evaluation strategy are of significant relevance and acceptance for planning, construction and process orientated monitoring as well as the "grade of achievements" for such projects. The investigated process orientated Indicator values are the fundament for net working, visualization and for understanding of complex systems in project development and success orientated achievements. There are many evaluation and monitoring system on the market like the BNB/DGNB, BREEAM, LEED, African Green City Index (GCI), Asian GCI, European GCI, ESTIDIMA (Pearls), GREEN Pyramids. The newly established Eva.S evaluation tool takes in account most of the pro and contras of all these internationally well accepted concepts. Eva.S represents a challenge as much as a competent opportunity and toolbox for a successful and tailored project development, assessment and management of the progresses. An internationally well accepted evaluation strategy is necessary to enable a relevant, scientific monitoring to capture and assess qualitative and quantitative effects related indicators of the measures planned and/or realized the first time by Eva.S and the Young Cities project. The impact of qualitative and quantitative effect related indicators are rated at the same level. The Young Cities project working phases were attended from the first moment on during data mining, evaluation and finally by visualization of the results by so-called radar diagrams. There are five relevant steps of work flow for managing the data. Starting with data mining and organizing the raw data in matrices and indicator templates. The project specific indicator related data sets are sorted out for feeding the Eva.S evaluation tool for a data check considering the classical criteria for sustainability in the field of economy, ecology and social-cultural aspects by a multi array grid (processor). In a monitoring and decision loop the final results and products as well as strategies are shown for dissemination and rating of the results. The rating system 1-10 (1= best practice; 10= failure) is similar to the common rating tables of international standards to demonstrate in particular the "grade of achievement" of the measures. The development and realization of a project is a process in several distinct project-phases and this will certainly not end with its implementation. Sectorial considerations and therefore possibly inefficient measures in case of changes in the project can be prevented because the presented interaction and feed back effects of the evaluation and monitoring strategy is integrated from the beginning on of the project with the focus on the analysis of work flow and rating checks. The Eva.S evaluation tool was performed by the Young Cities project by the participating project teams in the forum of an internal Evaluation and Monitoring group. From the first beginning on it was designed also for other applications and potential projects and test runs were consequently developed. The first runs were done successfully with data sets of the well known REFINA project and resources consumption management. The Eva.S data bank was serving the Young Cities project by 135 data sets, 3 Fields of Action (FoA) and 25 Work Packages. The Eva.S evaluation tool is operating in Open Source / Mikrosoft Office easy to feed by a Drop-Down menu. The Eva.S project data are evaluated by qualitative and quantitative project specific indicators proved by the classical dimensions of sustainability: socio-cultural quality, economic and ecological quality. The risk analysis part of Eva.S was tested and optimized by a MORIX feasibility study in Real Estate Management (REM) Master Courses. The dynamic and constantly up-dated Eva.S evaluation tool has many potential applications in the field of evaluation and monitoring. Stakeholders are project developer, political decision maker of municipal authorities. Eva.S is from now on present in the internet and offers access world wide: http://yc.liebrenz.info/refina/index.php. There are no barriers and there will be a training and application of Eva.S for legal frame work.
In: Paul de Hert/Vagelis Papakonstantinou, The EU institutions' battle over data processing vs individual rights, in Policy Change in the Area of Freedom, Security and Justice: How EU institutions matter, editors F Trauner/A Ripoll Servent, Routledge, 2015.
International audience ; This paper proposes a model for specifying data flow-based parallel data processing programs agnostic of target Big Data processing frameworks. The paper focuses on the formal abstract specification of non-iterative and iterative programs, generalizing the strategies adopted by data flow Big Data processing frameworks. The proposed model relies on Monoid Algebra and Petri Nets to abstract Big Data processing programs in two levels: a higher level representing the program data flow and a lower level representing data transformation operations (e.g., filtering, aggregation, join). We extend the model for data processing programs, for modeling iterative data processing programs. The general specification of these programs implemented by data flow-based parallel programming models is essential given the democratization of iterative and greedy Big Data analytics algorithms. Indeed, these algorithms call for revisiting parallel programming models to express iterations. The paper gives a comparative analysis of the iteration strategies proposed by Apache Spark, DryadLINQ, Apache Beam, and Apache Flink. It discusses how the model achieves to generalize these strategies.
International audience ; This paper proposes a model for specifying data flow-based parallel data processing programs agnostic of target Big Data processing frameworks. The paper focuses on the formal abstract specification of non-iterative and iterative programs, generalizing the strategies adopted by data flow Big Data processing frameworks. The proposed model relies on Monoid Algebra and Petri Nets to abstract Big Data processing programs in two levels: a higher level representing the program data flow and a lower level representing data transformation operations (e.g., filtering, aggregation, join). We extend the model for data processing programs, for modeling iterative data processing programs. The general specification of these programs implemented by data flow-based parallel programming models is essential given the democratization of iterative and greedy Big Data analytics algorithms. Indeed, these algorithms call for revisiting parallel programming models to express iterations. The paper gives a comparative analysis of the iteration strategies proposed by Apache Spark, DryadLINQ, Apache Beam, and Apache Flink. It discusses how the model achieves to generalize these strategies.
International audience ; This paper proposes a model for specifying data flow-based parallel data processing programs agnostic of target Big Data processing frameworks. The paper focuses on the formal abstract specification of non-iterative and iterative programs, generalizing the strategies adopted by data flow Big Data processing frameworks. The proposed model relies on Monoid Algebra and Petri Nets to abstract Big Data processing programs in two levels: a higher level representing the program data flow and a lower level representing data transformation operations (e.g., filtering, aggregation, join). We extend the model for data processing programs, for modeling iterative data processing programs. The general specification of these programs implemented by data flow-based parallel programming models is essential given the democratization of iterative and greedy Big Data analytics algorithms. Indeed, these algorithms call for revisiting parallel programming models to express iterations. The paper gives a comparative analysis of the iteration strategies proposed by Apache Spark, DryadLINQ, Apache Beam, and Apache Flink. It discusses how the model achieves to generalize these strategies.
International audience ; This paper proposes a model for specifying data flow-based parallel data processing programs agnostic of target Big Data processing frameworks. The paper focuses on the formal abstract specification of non-iterative and iterative programs, generalizing the strategies adopted by data flow Big Data processing frameworks. The proposed model relies on Monoid Algebra and Petri Nets to abstract Big Data processing programs in two levels: a higher level representing the program data flow and a lower level representing data transformation operations (e.g., filtering, aggregation, join). We extend the model for data processing programs, for modeling iterative data processing programs. The general specification of these programs implemented by data flow-based parallel programming models is essential given the democratization of iterative and greedy Big Data analytics algorithms. Indeed, these algorithms call for revisiting parallel programming models to express iterations. The paper gives a comparative analysis of the iteration strategies proposed by Apache Spark, DryadLINQ, Apache Beam, and Apache Flink. It discusses how the model achieves to generalize these strategies.
Mode of access: Internet. ; Issued by the U.S. Bureau of the Budget (1963-64 with Committee on Post Office and Civil Service, U.S. House of Representatives, for its Subcommittee on Census and Government Statistics).
Work in human factors encompasses research and application in human engineering, procedure development, training techniques, personnel requirements, test and evaluation, task description, and task allocation. Opportunities and needs exist in computer-based data processing systems for all these endeavors, especially with regard to on-line users. Within human engineering, only manual entry has so far received much research attention. Work is also needed on displays, integrated entry-display, workspace and other equipment aspects, on-line languages, and program production. Of greatest concern to human engineering is the computer output, designed by programmers, rather than the hardware. Human factors people will have to master a new field and provide guidance to a new discipline which has not yet understood human factors requirements.