Social Research and Data Collection on Poverty and Underdevelopment in the Congo: Context, Practice and Problems
In: Civilisations: revue internationale d'anthropologie et de sciences humaines, Heft 54, S. 107-115
ISSN: 2032-0442
454 Ergebnisse
Sortierung:
In: Civilisations: revue internationale d'anthropologie et de sciences humaines, Heft 54, S. 107-115
ISSN: 2032-0442
In: Population. English edition, Band 57, Heft 3, S. 571
ISSN: 1958-9190
In: Cahiers québécois de démographie, Band 35, Heft 1, S. 169
ISSN: 1705-1495
Sensing infrastructures are classically used in the IoT to collect data. However, a deep knowledge of sensing infrastructures is needed to properly interact with the deployed systems. For software engineers, targeting these systems is tedious. First, the specifies of the platforms composing the infrastructure compel them to work with little abstractions and heterogeneous devices. This can lead to code that badly exploit the network infrastructure. Moreover, by being infrastructure specific, these applications cannot be easily reused across different systems. Secondly, the deployment of an application is outside the domain expertise of a software engineer as she needs to identify the required platform(s) to support her application. Lastly, the sensing infrastructure might not be designed to support the concurrent execution of various applications leading to redundant deployments when a new application is contemplated. In this thesis we present an approach that supports (i) the definition of data collection policies at high level of abstraction with a focus on their reuse, (ii) their deployment over a heterogeneous infrastructure driven by models designed by a network export and (iii) the automatic composition of the policy on top of the heterogeneous sensing infrastructures. Based on these contributions, a software engineer can exploit sensor networks without knowing the associated details, while reusing architectural abstractions available off-the-shelf in their policy. The network will also be shared automatically between the policies. ; Les réseaux de capteurs sont utilisés dans l'IoT pour collecter des données. Cependant, une expertise envers les réseaux de capteurs est requise pour interagir avec ces infrastructures. Pour un ingénieur logiciel, cibler de tels systèmes est difficile. Les spécifications des plateformes composant l'infrastructure de capteurs les obligent à travailler à un bas niveau d'abstraction et à utiliser des plateformes hétérogènes. Cette fastidieuse activité peut conduire à un code ...
BASE
Sensing infrastructures are classically used in the IoT to collect data. However, a deep knowledge of sensing infrastructures is needed to properly interact with the deployed systems. For software engineers, targeting these systems is tedious. First, the specifies of the platforms composing the infrastructure compel them to work with little abstractions and heterogeneous devices. This can lead to code that badly exploit the network infrastructure. Moreover, by being infrastructure specific, these applications cannot be easily reused across different systems. Secondly, the deployment of an application is outside the domain expertise of a software engineer as she needs to identify the required platform(s) to support her application. Lastly, the sensing infrastructure might not be designed to support the concurrent execution of various applications leading to redundant deployments when a new application is contemplated. In this thesis we present an approach that supports (i) the definition of data collection policies at high level of abstraction with a focus on their reuse, (ii) their deployment over a heterogeneous infrastructure driven by models designed by a network export and (iii) the automatic composition of the policy on top of the heterogeneous sensing infrastructures. Based on these contributions, a software engineer can exploit sensor networks without knowing the associated details, while reusing architectural abstractions available off-the-shelf in their policy. The network will also be shared automatically between the policies. ; Les réseaux de capteurs sont utilisés dans l'IoT pour collecter des données. Cependant, une expertise envers les réseaux de capteurs est requise pour interagir avec ces infrastructures. Pour un ingénieur logiciel, cibler de tels systèmes est difficile. Les spécifications des plateformes composant l'infrastructure de capteurs les obligent à travailler à un bas niveau d'abstraction et à utiliser des plateformes hétérogènes. Cette fastidieuse activité peut conduire à un code ...
BASE
Cette brochure présente le « Programme d'action de Chennai » dont le but est de renforcer le rôle des ressources phytogénétiques dans l'accomplissement des Objectifs du millénaire pour le développement (OMD), et tout particulièrement la réduction de la faim et de la pauvreté. Le programme d'action décrit dans cette brochure est destiné à aider les gouvernements nationaux et les agences internationales à réaliser l'objectif de réduire de moitié la faim et la pauvreté d'ici 2015. Il met l'accent sur le principe d'accorder une plus grande importance à la biodiversité agricole dans les stratégies de développement nationales et internationales et de créer les conditions politiques nécessaires pour permettre une utilisation durable de cette richesse pour le bénéfice des membres les plus pauvres et les plus marginalisés de notre société. Le programme d'action appelle à une collaboration internationale renforcée au niveau de la conservation et à un partage durable et équitable des bénéfices résultant de l'utilisation de la biodiversité agricole. Il souligne le besoin urgent d'une action appropriée au niveau national afin de satisfaire les OMD.
BASE
In: Politix: revue des sciences sociales du politique, Band 3, Heft 103, S. 175-204
ISSN: 0295-2319
During the last thirty years, the researchers working within the orientation known as 'pragmatic sociology' have produced a considerable amount of empirical investigations relating to all areas of social life. In accordance with the theoretical and methodological assumptions they intended to defend, they have developed significantly new ways to conduct their inquiries, to collect data, to explore their fields, to think through the cases and controversies they used as entry points to explore the social order and its always problematic reproduction. The aim of this paper is to characterize by highlighting ten points the pragmatic style in sociology and to specify what are its methodological requisites and practical implications in the conduct of research. Adapted from the source document.
This article aims to present the steps and methods for collecting data from colleges with autistic spectrum disorders (ASD) enrolled in Ulis (Localised School Inclusion Unit) College and following part of their teaching in the ordinary classroom. The study aims to better understand the nature and sequence of social interactions in the classroom between colleges with TSA and their teachers. The first part of the article provides a number of contextual elements (Law of 2005, modalities of schooling for students with AST, existing research on socio-cognitive specificities and schooling of students with AST). Our data collection approach, described in the second part of the article, takes into account these contextual elements as well as the methods used by other researchers in this field. An analysis of all these data resulted in a system consisting of four preliminary steps (sample compilation, collection of consents, selection and preparation of data collection methods, verification of the compliance of the draft with the Law on Computing, Files and Freedoms) and several methods of collecting data involving four sources of information (filmed observation, interview, examination of files, standardised test). ; International audience ; This article aims to present the steps and methods for collecting data from colleges with autistic spectrum disorders (ASD) enrolled in Ulis (Localised School Inclusion Unit) College and following part of their teaching in the ordinary classroom. The study aims to better understand the nature and sequence of social interactions in the classroom between colleges with TSA and their teachers. The first part of the article provides a number of contextual elements (Law of 2005, modalities of schooling for students with AST, existing research on socio-cognitive specificities and schooling of students with AST). Our data collection approach, described in the second part of the article, takes into account these contextual elements as well as the methods used by other researchers in this ...
BASE
Since 2010, new research formats such as hackathons and data sprints have been developed in the field of digital research in sociology. Over a noticeably brief period, these events propose to analyze digital or digitized data and present the initial results. However, we have observed that these "short-form method » often relegate in the shadows the preparation of the data to focus on for the exploration and the visualization of datasets. As the coordinators of a research hackathon on the Digital Republic consultation, we observed the preparations required for this kind of event. Observations that highlight the critical work of « data shaping ». From the collection of data to its availability for the event, these processes are invisible by these short-form methods. Moreover, this study reveals a set of political stakes around data and open data, which are included in the technical choices made by the actors during this whole process. ; Depuis les années 2010, de nouveaux formats de recherche tels que les hackathons et les data sprints se sont développés dans le cadre d'expérimentations en sociologie numérique. Sur un temps très court, ces événements proposent d'analyser des données numériques ou numérisées et d'en présenter les premiers résultats. Or, on observe que ces « formats courts » relèguent souvent dans l'ombre la phase de préparation de ces données pour se concentrer sur l'exploration et la visualisation de jeux de données. En tant que coordonnatrices d'un hackathon recherche portant sur la consultation République numérique, nous avons observé les préparatifs à l'oeuvre dans l'organisation d'un tel événement. Des observations qui mettent en lumière un important travail de fabrication des données. De leur collecte à leur mise à disposition le jour de l'événement, ces étapes invisibilisées par ces « formats courts » révèlent un ensemble d'enjeux politiques autour de ces data et de leur ouverture, qui se dessinent même dans les choix techniques opérés par les acteurs en présence. ; Desde el año 2010, se han ...
BASE
Automatically linking multimedia documents that contain one or several instances of the same visual object has many applications including: salient events detection, relevant patterns discovery in scientific data or simply web browsing through hyper-visual links. Whereas efficient methods now exist for searching rigid objects in large collections, discovering them from scratch is still challenging in terms of scalability, particularly when the targeted objects are small compared to the whole image. In this PhD, we first revisited formally the problem of mining or discovering such objects, and then generalized two kinds of existing methods for probing candidate object seeds: weighted adaptive sampling and hashing based methods. We then introduced a new high-dimensional data hashing strategy, that works first at the visual level, and then at the geometric level. We conducted large-scale experiments on millions of images and on a new dedicated evaluation dataset (FlickrBelgaLogos.html) that we shared with the community. We did show that our method outperforms the reference method Geometric Min Hash. Based on this contribution, we then address the problem of suggesting object-based visual queries in a multimedia search engine. State-of-the-art visual search systems are usually based on the query-by-window paradigm: a user selects any image region containing an object of interest and the system returns a ranked list of images that are likely to contain other instances of the query object. User's perception of these tools is however affected by the fact that many submitted queries actually return nothing or only junk results (complex non-rigid objects, higher-level visual concepts, etc.). ; L'objectif principal de cette thèse est la découverte d'objets visuels fréquents dans de grandes collections multimédia (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, .), il s'agit d'extraire une connaissance de manière automatique ou semi-‐automatique en utilisant la fréquence d'apparition d'un objet au sein d'un corpus comme critère de pertinence. Dans le cas visuel, le problème est différent de la fouille de données classique (ADN, textuel, etc.) puisque les instances d'apparition d'un même objet ne constituent pas des entités identiques mais doivent être appariées. Cette difficulté explique également pourquoi nous nous focalisons sur la découverte des objets rigides (logos, objets manufacturés, décors, bâtiments, etc.), et non des catégories d'objets de plus haut niveau sémantique (maison, voiture, chien, .). Bien que les techniques de recherche d'objets rigides aient atteint une certaine maturité, le problème de la découverte non supervisée d'instances d'objets dans des grandes collections d'images est à l'heure actuelle encore difficile. D'une part parce que les méthodes actuelles ne sont pas assez efficaces et passent difficilement à l'échelle. D'autre part parce que le rappel et la précision sont encore insuffisants pour de nombreux objets. Particulièrement ceux ayant une taille très restreinte par rapport à l'information visuelle contextuelle qui peut être très riche (par exemple le logo d'un parti politique apparaissant ponctuellement dans un sujet de journal télévisé). Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d'instances d'objets visuels fréquents. Ces deux problèmes sont en effet définis de manière très confuse dans les quelques travaux récents de la littérature les abordant. Cette modélisation nous a permis entre autres choses de mettre en évidence le lien étroit qui existe entre la taille des objets à découvrir et la complexité du problème à traiter. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d'une part sur un processus itératif d'échantillonnage d'objets candidats et d'autre part sur une méthode efficace d'appariement d'objets rigides à large échelle. L'idée est de considérer l'étape de recherche d'instances proprement dite comme une simple boite noire à laquelle il s'agit de soumettre des régions d'images ayant une probabilité élevée d'appartenir à un objet fréquent de la base. Une première approche étudiée dans la thèse consiste à simplement considérer que toutes les régions d'images de la base sont équiprobables, avec comme idée conductrice que les objets les plus instanciés sont ceux qui auront la couverture spatiale la plus grande et donc la probabilité la plus élevée d'être échantillonnés. En généralisant cette notion de couverture à celle plus générique de couverture probabiliste, il est alors possible de modéliser la complexité de notre méthode pour toute fonction de vraisemblance donnée en entrée, et de montrer ainsi l'importance de cette étape. La troisième contribution de la thèse s'attache précisément à construire une fonction de vraisemblance s'approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Cette dernière repose sur une approche originale de hachage à deux niveaux, permettant de générer efficacement un ensemble d'appariements visuels dans un premier temps, et d'évaluer ensuite leur pertinence en fonction de contraintes géométriques faibles. Les expérimentations montrent que contrairement aux méthodes de l'état de l'art notre approche permet de découvrir efficacement des objets de très petite taille dans des millions d'images. Pour finir, plusieurs scénarios d'exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d'évènements médiatiques transmedia et la suggestion de requêtes visuelles.
BASE
Automatically linking multimedia documents that contain one or several instances of the same visual object has many applications including: salient events detection, relevant patterns discovery in scientific data or simply web browsing through hyper-visual links. Whereas efficient methods now exist for searching rigid objects in large collections, discovering them from scratch is still challenging in terms of scalability, particularly when the targeted objects are small compared to the whole image. In this PhD, we first revisited formally the problem of mining or discovering such objects, and then generalized two kinds of existing methods for probing candidate object seeds: weighted adaptive sampling and hashing based methods. We then introduced a new high-dimensional data hashing strategy, that works first at the visual level, and then at the geometric level. We conducted large-scale experiments on millions of images and on a new dedicated evaluation dataset (FlickrBelgaLogos.html) that we shared with the community. We did show that our method outperforms the reference method Geometric Min Hash. Based on this contribution, we then address the problem of suggesting object-based visual queries in a multimedia search engine. State-of-the-art visual search systems are usually based on the query-by-window paradigm: a user selects any image region containing an object of interest and the system returns a ranked list of images that are likely to contain other instances of the query object. User's perception of these tools is however affected by the fact that many submitted queries actually return nothing or only junk results (complex non-rigid objects, higher-level visual concepts, etc.). ; L'objectif principal de cette thèse est la découverte d'objets visuels fréquents dans de grandes collections multimédia (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, .), il s'agit d'extraire une connaissance de manière automatique ou semi-‐automatique en utilisant la fréquence d'apparition d'un objet au sein d'un corpus comme critère de pertinence. Dans le cas visuel, le problème est différent de la fouille de données classique (ADN, textuel, etc.) puisque les instances d'apparition d'un même objet ne constituent pas des entités identiques mais doivent être appariées. Cette difficulté explique également pourquoi nous nous focalisons sur la découverte des objets rigides (logos, objets manufacturés, décors, bâtiments, etc.), et non des catégories d'objets de plus haut niveau sémantique (maison, voiture, chien, .). Bien que les techniques de recherche d'objets rigides aient atteint une certaine maturité, le problème de la découverte non supervisée d'instances d'objets dans des grandes collections d'images est à l'heure actuelle encore difficile. D'une part parce que les méthodes actuelles ne sont pas assez efficaces et passent difficilement à l'échelle. D'autre part parce que le rappel et la précision sont encore insuffisants pour de nombreux objets. Particulièrement ceux ayant une taille très restreinte par rapport à l'information visuelle contextuelle qui peut être très riche (par exemple le logo d'un parti politique apparaissant ponctuellement dans un sujet de journal télévisé). Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d'instances d'objets visuels fréquents. Ces deux problèmes sont en effet définis de manière très confuse dans les quelques travaux récents de la littérature les abordant. Cette modélisation nous a permis entre autres choses de mettre en évidence le lien étroit qui existe entre la taille des objets à découvrir et la complexité du problème à traiter. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d'une part sur un processus itératif d'échantillonnage d'objets candidats et d'autre part sur une méthode efficace d'appariement d'objets rigides à large échelle. L'idée est de considérer l'étape de recherche d'instances proprement dite comme une simple boite noire à laquelle il s'agit de soumettre des régions d'images ayant une probabilité élevée d'appartenir à un objet fréquent de la base. Une première approche étudiée dans la thèse consiste à simplement considérer que toutes les régions d'images de la base sont équiprobables, avec comme idée conductrice que les objets les plus instanciés sont ceux qui auront la couverture spatiale la plus grande et donc la probabilité la plus élevée d'être échantillonnés. En généralisant cette notion de couverture à celle plus générique de couverture probabiliste, il est alors possible de modéliser la complexité de notre méthode pour toute fonction de vraisemblance donnée en entrée, et de montrer ainsi l'importance de cette étape. La troisième contribution de la thèse s'attache précisément à construire une fonction de vraisemblance s'approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Cette dernière repose sur une approche originale de hachage à deux niveaux, permettant de générer efficacement un ensemble d'appariements visuels dans un premier temps, et d'évaluer ensuite leur pertinence en fonction de contraintes géométriques faibles. Les expérimentations montrent que contrairement aux méthodes de l'état de l'art notre approche permet de découvrir efficacement des objets de très petite taille dans des millions d'images. Pour finir, plusieurs scénarios d'exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d'évènements médiatiques transmedia et la suggestion de requêtes visuelles.
BASE
Dried collections of the Yves Rocher Botanic Garden in La Gacilly (France) include herbarium, dried seed and fruit collections. The formalization of collections organization is necessary to consider their development in the future. Conservation conditions, completion and sanitary protocols were revised and a new methodology was defined, accession number were used to link in a permanent way physical accessions to their corresponding data in the collection management database. Inventory data were exported from the garden database to online databases (GBIF and BGCI), using the DarwinCore biodiversity sharing standard. A collection management policy document was realized, defining the objectives, organization, and procedural rules. ; Les collections inertes du Jardin Botanique Yves Rocher de La Gacilly sont constituées des herbiers, carpothèque et séminothèque. L'objectif du stage est de formaliser l'organisation des collections dans la perspective de leur développement futur. Ces collections établies au cours de l'activité du jardin botanique représentent des volumes importants. L'analyse de leurs conditions de réalisation, de conservation a été réalisée. Dans un second temps l'organisation des collections a été envisagée par le référencement et l'intégration des accessions dans la base de données de gestion des collections du jardin. Un lien permanent est établi entre les données numériques et l'objet de collection par un identifiant unique, un numéro d'accession pour la gestion interne au jardin. L'export des données d'inventaire en vue de leur partage sur les réseaux du GBIF et du BGCI et adaptées selon le standard DarwinCore a été effectué. Une politique de gestion pour les collections inertes a été réalisée et formalise les objectifs des collections, leur organisation et les règles de fonctionnement en interne et vis-à-vis des personnes extérieures.
BASE
The analysis of the Byzantines currencies of the collections of the two Cappadoce, Kayseri and Niğde museums (almost 1500, staggered from the beginning of the sixth to the second century) has established the privileged links of Cappadoce with Syria and the weakness of its economic integration at the scale of the empire in the sixteenth century, the early mood and the scale of the monetary discourse characteristic of the seventh and eighth centuries, the effects of political and administrative action in the region. In the absence of almost any economic data and in view of the lack of actual archaeological knowledge, these data shed a fairly precise light on the integration of Central Anatolia into the economy and on the exchanges of the empire at the same time as the direct and indirect impact of confrontation with caliphate, all the more important as Central Anatolia is the matrix of military and land aristocracy that is required in the Empire Government from the 19th century onwards. ; International audience ; The analysis of the Byzantines currencies of the collections of the two Cappadoce, Kayseri and Niğde museums (almost 1500, staggered from the beginning of the sixth to the second century) has established the privileged links of Cappadoce with Syria and the weakness of its economic integration at the scale of the empire in the sixteenth century, the early mood and the scale of the monetary discourse characteristic of the seventh and eighth centuries, the effects of political and administrative action in the region. In the absence of almost any economic data and in view of the lack of actual archaeological knowledge, these data shed a fairly precise light on the integration of Central Anatolia into the economy and on the exchanges of the empire at the same time as the direct and indirect impact of confrontation with caliphate, all the more important as Central Anatolia is the matrix of military and land aristocracy that is required in the Empire Government from the 19th century onwards. ; L'analyse des ...
BASE
Includes bibliography ; Le nombre de pays permettant au grand public d'accéder aux données sur l'éducation a augmenté rapidement au cours de la dernière décennie, encouragé par l'essor des nouvelles technologies de l'information et la pression croissante des citoyens pour plus de transparence. Alors qu'un volume d'informations de plus en plus important est partagé sous forme imprimée ou électronique, plusieurs questions se posent : Quelles données sont les plus pertinentes ? Quel format est le plus susceptible d'encourager les communautés à les utiliser ? Quelles actions sont nécessaires pour renforcer la redevabilité ? Quels sont les risques liés au partage de l'information ? Cet ouvrage apporte des réponses à ces questions en détaillant la chaîne d'actions nécessaires pour réussir une politique de données ouvertes sur l'école. Il fait valoir que décideurs et planificateurs doivent passer d'une perspective administrative à une perspective citoyenne, tirant les leçons de l'expérience de la société civile. Il démontre qu'en suscitant des attentes et des espoirs, les données ouvertes sur l'école pourraient bien induire de profonds changements dans les dynamiques de pouvoir à l'œuvre au sein du secteur de l'éducation.
BASE
International audience ; Au mois de juillet dernier, les Archives nationales ont adopté un nouveau règlement de réutilisation des « informations publiques » contenues dans les documents faisant partie de leurs collections, qui marque un tournant significatif. L'établissement a en effet choisi de renoncer à sa précédente politique de redevances pour appliquer par défaut un principe de gratuité valable pour les "les documents librement communicables à tous et sur lesquels des tiers ne détiennent pas des droits de propriété intellectuelle".
BASE