Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Alternativ können Sie versuchen, selbst über Ihren lokalen Bibliothekskatalog auf das gewünschte Dokument zuzugreifen.
Bei Zugriffsproblemen kontaktieren Sie uns gern.
20 Ergebnisse
Sortierung:
In: Control engineering 22
As the capabilities of the mobile robots as well as their abilities to perform more tasks in an autonomous manner are increased, we need to think about the interactions that humans will have with these robots. Human-robot interaction (HRI) has recently received considerable attention in the academic community, government labs, technology companies, and through the media. The interdisciplinary nature of HRI requires researchers in the field to understand their research within a broader context. Since natural language is the easiest and most natural mode of communication for humans, it is desirable to use it to instruct the robot and to generate easy-to-understand messages for the user. Using natural language to teach a navigation task to a robot is an application of a more general instruction-based learning methodology. It can be used to instruct the robot with higher-level goals or to handle certain behaviors and modify their execution. One effective way is to describe the route to the robot in a multimodal way. On the other hand, significant progress has been made towards stable robotic bipedal walking in the last few years. This is creating an increased research interest in developing autonomous navigation strategies which are tailored specifically to humanoid robots. Efficient approaches to perception and motion planning, which are suited to the unique characteristics of bipedal humanoid robots and their typical operating environments, are receiving special interest. One important area of research involves the design of algorithms to compute robust navigation strategies for humanoid robots in human environments. Therefore, autonomous robot navigation based on route instruction is becoming an increasingly important research topic with regard to both humanoid and other mobile robots. In this dissertation, the problem of humanoid robot navigation in indoor environments is addressed. A complete framework is presented for humanoid robot navigation based on a multimodal cognitive interface. First, a spatial language to describe route-based navigation tasks for a mobile robot is proposed. This language is implemented to present an intuitive interface that enables novice users to easily and naturally describe a route to a mobile robot in indoor environments. An instruction interpreter is implemented to analyze the user's route to generate its equivalent symbolic and topological map representations which are used as an initial path estimation for the humanoid robot. Second, a robust lightweight object processing system with a high detection rate is developed. It can actually be used by mobile robots and meet their hard constraints to recognize landmarks during navigation. A landmark processing system is developed to detect, identify, and localize different types of landmarks during robot navigation in indoor or miniature city environments. The system is based on a two-step classification stage which is robust and invariant towards scaling and translations. By combining the strengths of appearance-based and model-based object classification techniques, it provides a good balance between fast processing time and high detection accuracy. Finally, a time-efficient hybrid motion planning system for a humanoid robot in indoor environments is implemented. The proposed technique is a combination of sampling-based planner and D* Lite search to generate dynamic footstep placements in unknown environments. A modified cylinder model is used to approximate the trajectory for the robot's body-center during navigation. It calculates the actual distances required to execute different actions of the robot and compares them to the distances from the nearest obstacles. D* Lite search is then used to find dynamic and low-cost footstep placements within the resulting configuration space. ; Da die Fähigkeiten von mobilen Robotern einschließlich ihrer Möglichkeiten, Aufgaben autonom durchzuführen, erweitert wurden, muss die Interaktion zwischen Mensch und Roboter neu betrachtet werden. Human-Robot-Interaction (HRI) ist ein aktuelles Thema in der Forschung, in Technologie-Unternehmen und in den Medien. Der interdisziplinäre Charakter des HRI-Bereiches erfordert Forschung innerhalb eines breiten Themenkomplexes. Da natürliche Sprache das einfachste und natürlichste Mittel der Kommunikation für Menschen ist, ist es wünschenswert, diese Form der Kommunikation auch bei der HRI zu nutzen, um einem Roboter Anweisungen zu geben und leicht verständliche Botschaften für den Benutzer zu generieren. Die Verwendung natürlicher Sprache zur Instruierung bei Navigations-Aufgaben ist eine Anwendung einer allgemeineren instruktions-basierten Lernmethodologie. Dem Roboter können so übergeordnete Ziele mitgeteilt werden, bestimmte Verhaltensweisen geändert oder auch die Ausführung einzelner Aktionen modifiziert werden. Eine effiziente Methode zur Beschreibung der Route ist die Verwendung multimodaler Anweisungen. Weil die vergangenen Jahre einen bedeutenden Fortschritt auf dem Gebiet der humanoiden Roboter und des stabilen zweibeinigen Gehens gebracht haben, besteht ein verstärktes Forschungsinteresse an der Entwicklung autonomer Navigationsstrategien, die speziell auf humanoide Roboter zugeschnitten sind. Von besonderem Interesse sind effiziente Ansätze zur kombinierten Perzeptions- und Aktionsplanung, die an die speziellen Eigenschaften von zweibeinigen humanoiden Robotern und ihre typischen Betriebsumgebungen angepasst sind. Ein wichtiges Gebiet der Forschung ist der Entwurf von Algorithmen zur Berechnung von robusten Navigations-Strategien für humanoide Roboter in menschlicher Umgebung. Aus diesem Grunde ist die auf Routen-Instruktion beruhende autonome Roboter-Navigation ein zunehmend interessantes Thema im Hinblick auf humanoide und andere mobile Roboter. Diese Dissertation befasst sich mit dem Problem der humanoiden Roboter-Navigation in Innenräumen. Es wird ein komplettes Framework für humanoide Roboter-Navigation basierend auf einer multimodalen Schnittstelle vorgestellt. Zunächst wird eine formale Sprache eingeführt, mit der die routen-basierten Navigationsaufgaben beschrieben werden können. Diese Sprache stellt eine intuitive Schnittstelle bereit, mit der auch unerfahrene Anwender leicht einen mobilen Roboter in einer Route in Innenräumen instruieren können. Ein Befehls-Interpreter analysiert die Benutzer-Eingabe und generiert entsprechende symbolische und topologische Darstellungen, die als erste Pfad-Schätzung für den humanoiden Roboter verwendet werden. Des Weiteren wird in dieser Arbeit ein robustes und effizientes Objekterkennungssystem mit einer hohen Erkennungsrate entwickelt. Es kann bei mobilen Robotern eingesetzt werden und erfüllt die Anforderung, Landmarken während der Navigation zu erkennen. Das Landmarken-Detektions-System ist in der Lage, während der Roboter-Navigation in einer Miniatur-Stadt verschiedene Typen von Landmarken zu detektieren, identifizieren und zu lokalisieren. Das System basiert auf einem zweistufigen Klassifikations-Prozess, der robust und invariant gegenüber Skalierung und Translation ist. Durch die Kombination der Stärken der erscheinungs-basierten und modell-basierten Objekt-Klassifikation bietet es einen guten Kompromiss zwischen schnellen Bearbeitungszeiten und hoher Erkennungsgenauigkeit. Ebenfalls Bestandteil dieser Arbeit ist die Implementierung eines zeiteffizienten hybriden Bewegungs-Planungs-Systems für humanoide Roboter in einer Innenraum-Umgebung. Die vorgeschlagene Technik ist eine Kombination aus Sampling-basierter Planung und "D * Lite"-Suche, die ermöglicht, dynamisch Tritt-Platzierungen in unbekannten Umgebungen zu erzeugen. Ein modifiziertes Zylinder-Modell wird verwendet, um die Trajektorie des Roboters während der Navigation näherungsweise zu bestimmen. Die Planungskomponente berechnet die benötigten Freiräume, um verschiedene Aktionen des Roboters auszuführen und vergleicht sie mit der aktuellen Entfernung zu den nächstgelegenen Hindernissen. "D* Lite"-Suche wird dann verwendet, um eine dynamische und effiziente Platzierung der Schritte innerhalb des resultierenden Konfigurations-Raumes zu finden.
BASE
The principles of adaptation to various environments have not yet been clarified. Furthermore, autonomous adaptation remains unsolved and a seriously difficult problem in robotics. Apparently, the adaptation ability shown by animals and that needed by robots in the real world cannot be explained or realized by one single function in a control system and mechanism. That is, adaptation in motion is induced at every level in a wide spectrum from the central neural system to the musculoskeletal system. This book contains the papers selected carefully from the symposium ANIAM2003, particularly concerning adaptation in locomotion from the viewpoint of robotics and neurophysiology. Due to this restriction in topics adopted, we expect that this book will efficiently provide good information for scientists and engineers, which is useful to discuss the principles and mechanisms underlying animals' adaptation under unstructured environment . TOC:Higher Level Control of Locomotion.- Analysis and Control of Locomotion.- Control Principles from Biologically Inspired Machine.- Rhythmic Motion Analysis and Implementation.- Dynamic and Adaptive Locomotion.- Neural Control and Learning.- Modeling and Analysis of Locomotion.- Biologically Inspired Machine Design and Control Architecture.- Robot Brain.- Mobiligence.
In: Andersen , J C 2007 , Mobile Robot Navigation .
Robotter vil om få år blive en del af vores daglige liv. Inden for produktionsindustrien har det allerede være tilfældet i mange år, men anvendelsen af mobile robotter har hidtil været henvist til isolerede områder som græsslåning, overvågning, landbrugsproduktion og militære funktioner. Fremskridt i forskningen gør, at robotter vil kunne assistere os i mange af vore daglige gøremål i en ikke så fjern fremtid. En af de teknologier, der skal gøre dette muligt, er navigation, og navigation er emnet for denne afhandling. Navigation for autonome robotter handler om robottens evne til autonomt at manøvrere fra den nuværende position til et ønsket bestemmelsessted. Denne afhandling præsenterer og validerer eksperimentelt løsninger til detektering af farbar vej, omgåelse af forhindringer og gennemførelse af missioner. Vejklassifikationen er baseret på laserscanner-målinger og assisteret med vision for længere rækkevidde. Vejklassifikationen er tilstrækkelig selektiv til at kunne adskille selv flade vejrabatter fra selve vejen og kan isolere asfaltveje fra grusveje. Vejgenkendelse ud fra kamerabilleder tager udgangspunkt i klassifikationen fra laserscanneren og bruger en kombination af farve og kantdetektering til at estimere farbar vej på længere afstande. Resultatet af disse to sensorer anvendes under planlægning af en farbar rute, og her er det især robottens evne til at følge vejens kanter, der er undersøgt. Navigationen i en mission er styret af et sekventielt manuskript. Manuskriptsproget giver mulighed for detektering af vejkryds, for beregninger til brug under passagen af disse kryds og til valg a styringsmetode i øvrigt. Det samlede system er testet på en kombination af asfalt- og grusveje, med et antal forgreninger og vejkryds. Missioner på op til 3km længde er gennemkørt autonomt med det beskrevne system. Fokus i afhandlingen har været den eksperimentelle validering af de implementerede metoder og metodernes evne til at løse problemer i en virkelig verden. Der skal en betydelig mængde software til for at styre en autonom robot, emner som software genbrug og distribueret udvikling er derfor essentielle. Denne afhandling beskriver yderligere en komponentbaseret arkitektur for robotter, som kan fremme software genbrug og distribueret udvikling og vedligeholdelse. ; Abstract Robots will soon take part in everyone's daily life. In industrial production this has been the case for many years, but up to now the use of mobile robots has been limited to a few and isolated applications like lawn mowing, surveillance, agricultural production and military applications. The research is now progressing towards autonomous robots which will be able to assist us in our daily life. One of the enabling technologies is navigation, and navigation is the subject of this thesis. Navigation of an autonomous robot is concerned with the ability of the robot to direct itself from the current position to a desired destination. This thesis presents and experimentally validates solutions for road classification, obstacle avoidance and mission execution. The road classification is based on laser scanner measurements and supported at longer ranges by vision. The road classification is sufficiently sensitive to separate the road from flat roadsides, and to distinguish asphalt roads from gravelled roads. The vision-based road detection uses a combination of chromaticity and edge detection to outline the traversable part of the road based on a laser scanner classified sample area. The perception of these two sensors are utilised by a path planner to allow a number of drive modes, and especially the ability to follow road edges are investigated. The navigation mission is controlled by a script language. The navigation script controls route sequencing, junction detection, junction crossing calculations and drive mode selection. The entire system is tested on a combination of narrow asphalt and gravelled roads connected by a number of junctions. Missions of up to 3km in length have been successfully completed using the described system. The main focus of the thesis has been the experimental validation of the implemented solutions and the ability of the methods to solve real world problems. The amount of software needed by an autonomous robot can be overwhelming. Software reuse and distributed development are therefore important issues. The thesis describes a new component architecture for robotics software that promotes software reuse and distributed development and maintenance.
BASE
In: Europäische Sicherheit: Politik, Streitkräfte, Wirtschaft, Technik, Band 55, Heft 9, S. 62-65
ISSN: 0940-4171
In the two convincing final presentations - RoboScout, the realization concept for land robot systems, and MobRob, the mobile mini robot for armored reconnaissance - the German industry has demonstrated that it is definitely willing to also invest in niches with the military in the field of future-oriented robot technology to put highly efficient systems with a lot of engagement on their legs and wheels, respectively.Together with the companies involved in the studies, the Bundeswehr, too, has thus succeeded in entering the century of robots both convincingly and promisingly. And since this century is still young, we may look forward to be shown in future as well further interesting results in the challenging field of ground-based mobile robotics. (Europäische Sicherheit / SWP)
World Affairs Online
In: Springer tracts in advanced robotics 37
In: Research in contemporary religion 3
In: Research in contemporary religion 3
This thesis deals with three-dimensional reconstruction of a mobile robot's environment. Based on omnidirectional vision data, it aims at preparing military operations. We first developed a well-adapted architecture for 3D reconstruction and autonomous navigation. Calibration is a key step for a vision system in order to measure its environment. This step consists in modelling the system to establish the mathematical relationship between 3D points and their projections onto the image. After discussing a model choice, we will present a method to estimate its parameters. The stereoscopic structure of the sensor allows three-dimensional reconstruction from a static viewpoint. We thus propose algorithms allowing a dense reconstruction as well as detection of the primitives in omnidirectional images. When the sensor is moving, we use its motion to enhance the 3D model. Our major contribution consists in developing a bundle adjustment algorithm for omnidirectional stereoscopic sensors, which provides a motion estimation using only visual data. ; Les travaux présentés dans cette thèse concernent la reconstruction tridimensionnelle de l'environnement d'un robot mobile, à partir d'informations de vision omnidirectionnelle, pour la préparation d'interventions. Nous nous intéressons dans un premier temps à la conception d'une architecture matérielle adaptée aux problématiques de la reconstruction 3D et de la navigation autonome. Le calibrage d'un système de vision est une étape indispensable dès lors que celui-ci est destiné à effectuer des mesures sur son environnement. Cette phase consiste à modéliser le système pour établir la relation mathématique liant les points 3D et leurs projections dans les images. Après une discussion sur le choix du modèle, nous présentons une méthodologie pour estimer les paramètres du modèle retenu. La structure stéréoscopique du capteur que nous avons développé rend possible la reconstruction tridimensionnelle de l'environnement sans déplacement. Nous proposons donc des algorithmes ...
BASE
This thesis deals with three-dimensional reconstruction of a mobile robot's environment. Based on omnidirectional vision data, it aims at preparing military operations. We first developed a well-adapted architecture for 3D reconstruction and autonomous navigation. Calibration is a key step for a vision system in order to measure its environment. This step consists in modelling the system to establish the mathematical relationship between 3D points and their projections onto the image. After discussing a model choice, we will present a method to estimate its parameters. The stereoscopic structure of the sensor allows three-dimensional reconstruction from a static viewpoint. We thus propose algorithms allowing a dense reconstruction as well as detection of the primitives in omnidirectional images. When the sensor is moving, we use its motion to enhance the 3D model. Our major contribution consists in developing a bundle adjustment algorithm for omnidirectional stereoscopic sensors, which provides a motion estimation using only visual data. ; Les travaux présentés dans cette thèse concernent la reconstruction tridimensionnelle de l'environnement d'un robot mobile, à partir d'informations de vision omnidirectionnelle, pour la préparation d'interventions. Nous nous intéressons dans un premier temps à la conception d'une architecture matérielle adaptée aux problématiques de la reconstruction 3D et de la navigation autonome. Le calibrage d'un système de vision est une étape indispensable dès lors que celui-ci est destiné à effectuer des mesures sur son environnement. Cette phase consiste à modéliser le système pour établir la relation mathématique liant les points 3D et leurs projections dans les images. Après une discussion sur le choix du modèle, nous présentons une méthodologie pour estimer les paramètres du modèle retenu. La structure stéréoscopique du capteur que nous avons développé rend possible la reconstruction tridimensionnelle de l'environnement sans déplacement. Nous proposons donc des algorithmes permettant la reconstruction dense de l'environnement, ainsi que des algorithmes de détection de primitives dans les images omnidirectionnelles. Lorsque le capteur est en mouvement, nous exploitons ses déplacements pour enrichir le modèle 3D. Notre principale contribution porte sur le développement d'un algorithme d'ajustement de faisceaux pour les capteurs stéréoscopiques omnidirectionnels qui permet d'obtenir une estimation des déplacements en ne nécessitant que des données visuelles.
BASE
The theme of "low-cost navigation", characterized by transferring performance from sensors to data fusion and control algorithms, is a central theme for many military applications, in particular those related to light troops. Using inertial or magnetic sensors from the MEMS category, along with civilian GPS, optimizes weight, size and energy consumption. As will be demonstrated, this approach requires application-specific guidance navigation and control algorithms to compensate for the relatively poor quality of the sensor signals. In this thesis, we consider three scenarios of interest and develop innovative techniques for guidance and navigation. First, we consider the case of a ground vehicle equipped with proximity sensors, a gyroscope, odometers and a GPS. Experimentally, we implement an algorithm for obstacle avoidance for which we establish a proof of convergence, and an offline path-planning algorithm that is complemented by a dynamic feedback controller and a non-linear state estimator. Then, we investigate the case of an unstable helicopter. We develop and implement algorithms within a real-time control system that we designed specifically for computational and estimation tasks. The state estimator includes a model of the flight dynamics, and uses data from inertial sensors, a barometer, and a GPS to serve as input for a closed-loop controller. The parameters of the model are identified accurately by using data obtained during experimental flights. Eventually, we shall perform autonomous hovering flights, which stress the performance of the system. Finally, we consider the problem of a pedestrian walking inside buildings. The heading estimation errors observed using various platforms (both ground and aerial) suggest a new use of the magnetic field, and we propose to derive information by inspecting its gradients. We explain how to use (unknown) disturbances of the magnetic field to improve the position estimate in inertial navigation. Experimental results emphasize the relevance of the approach. ; Le thème de la « navigation bas-coût », caractérisé par le transfert de performance des capteurs vers les algorithmes de fusion de données et de commande, est un thème central dans de nombreuses applications militaires liées en particulier aux besoins nouveaux des troupes légères. L'utilisation de capteurs inertiels ou magnétométriques type MEMS et de GPS civils (notamment), optimise les critères d'encombrement, de masse et de consommation. Mais elle requiert, en compensation des performances relativement médiocres des capteurs, des algorithmes de guidage-navigation-pilotage spécifiques aux applications considérées. Dans ce mémoire, nous considérons trois scénarios d'utilisation et exposons des techniques innovantes pour la localisation et le contrôle. Nous considérons d'abord le cas d'un robot terrestre équipé de capteurs de proximité, d'un gyroscope, d'odomètres et d'un GPS. Nous implémentons expérimentalement avec succès un algorithme d'évitement d'obstacles dont nous établissons une preuve de convergence, ainsi qu'un algorithme de planification de trajectoires hors ligne dont nous utilisons les résultats en temps réel pour réaliser, via un estimateur non linéaire, un bouclage par retour dynamique. Nous étudions ensuite le cas du vol autonome d'une plate-forme aérienne instable de type hélicoptère. Nous développons et implémentons, à bord sur un système de mesure et de calcul temps-réel de notre conception, un estimateur d'état incluant un modèle de la dynamique du vol de l'engin, recalé par les capteurs inertiels, barométriques, et GPS ainsi qu'un bouclage par retour d'état. En utilisant les résultats de filtrage sur les vols effectués, les paramètres du modèle sont précisément identifiés : la qualité et la robustesse de l'estimation obtenues grâce au modèle permettent de réaliser un vol stationnaire autonome en extérieur. Enfin nous considérons le problème d'un piéton évoluant à l'intérieur de bâtiments. Les erreurs d'estimation du cap lors de l'utilisation des différentes plate-formes (terrestre comme aérienne) nous guident vers une utilisation nouvelle du champ magnétique par l'inspection de ses gradients. Par une technique que nous exposons, nous montrons comment utiliser les perturbations (inconnues) du champ magnétique pour améliorer considérablement l'estimation de position d'une centrale inertielle bas-coût au point qu'elle devienne un instrument de localisation.
BASE
In: Soziologische Arbeitspapiere, Band 7
Der vorliegende Beitrag befasst sich mit der Mensch-Maschine-Interaktion und der Schaffung hybrider Systeme, in denen der Mensch nur ein kleiner Bestandteil eines hochautomatisierten Räderwerks ist, das weitgehend von Robotern, von autonomen Software-Agenten sowie sich selbst steuernden Multi-Agenten-Systemen geprägt ist. Im zweiten Kapitel werden die sozialen Folgen dieser fortschreitenden Verwissenschaftlichung und Technisierung aller gesellschaftlichen Bereiche behandelt. Das dritte Kapitel enthält eine Fallstudie zu dem Kollisionswarnsystem in der Luftfahrt (TACS), das das erste Beispiel dafür ist, dass ein Multi-Agenten-System versagt hat. Im vierten und fünften Kapitel werden Schlussfolgerungen gezogen und Forschungsbedarfe aufgezeigt. (ICD)
In: Soziologische Arbeitspapiere, Band 28
"Empirische Befunde zur hybriden Wissensgenerierung am Beispiel der deutschsprachigen Wikipedia. Bisherige (soziologische) Forschungsarbeiten zu Wikipedia konzentrieren sich insbesondere auf die Frage nach der Entstehung eines eigentlich ''unmöglichen' öffentlichen Gut(s)' (Stegbauer 2006: 228), sowie auf die Entstehung von positionalen Strukturen innerhalb der Wikipedia-Gemeinschaft. Bei einer näheren Betrachtung der Edits, also den Veränderungen an Wikipedia-Artikeln, zeigt sich, dass inzwischen zahlreiche Edits von autonomen Softwareagenten, sogenannten Bots, durchgeführt werden. Es handelt sich bei diesen Editierungen zwar überwiegend um kleinere Änderungen an Artikeln, dennoch ist eine zunehmende Bedeutung nicht-menschlicher Akteure für die hybride Wissensgenerierung evident. Die Arbeit wird zunächst eine empirische Bestandsaufnahme der Bot- Aktivitäten vornehmen. Dabei werden die Bots nach unterschiedlichen Tätigkeitsfeldern klassifiziert und es wird untersucht, ob und wie sich die Bot-Aktivitäten in den letzten Jahren intensiviert haben. Im zweiten Schritt wird das Verhalten der Bots mit dem Verhalten menschlicher Wikipedia-Nutzer verglichen und auf wesentliche Differenzen und Ähnlichkeiten hingewiesen. Bei diesem Vergleich werden insbesondere die Art der Artikel-Änderungen und der Umfang der Änderungen berücksichtigt. Abschließend wird der Versuch unternommen, das Zusammenhandeln von Bot, Bot- Betreiber und Wikipedia-Nutzer mit Hilfe eines hybriden Handlungsmodells (HMSE) (Fink/Weyer 2010) zu erklären." (Autorenreferat)