Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249)
- Masterarbeit (91)
- Ausgabe (Heft) zu einer Zeitschrift (84)
- Bachelorarbeit (45)
- Diplomarbeit (27)
- Wissenschaftlicher Artikel (22)
- Studienarbeit (11)
- Konferenzveröffentlichung (10)
- Habilitation (4)
- Sonstiges (2)
Sprache
- Englisch (547) (entfernen)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (6)
- Software Engineering (6)
- Internet of Things (5)
- Biodiversität (4)
- Bluetooth (4)
- Bodenchemie (4)
- Landwirtschaft (4)
- Semantic Web (4)
- ecotoxicology (4)
Institut
- Fachbereich 4 (116)
- Institut für Informatik (83)
- Fachbereich 7 (78)
- Institut für Wirtschafts- und Verwaltungsinformatik (53)
- Institut für Computervisualistik (52)
- Institute for Web Science and Technologies (50)
- Institut für Management (30)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (24)
- Institut für Umweltwissenschaften (23)
- Fachbereich 8 (20)
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
This paper describes the robots TIAGo and Lisa used by team homer@UniKoblenz of the University of Koblenz-Landau, Germany, for the participation at the RoboCup@Home 2018 in Montreal, Canada. Further this paper serves as qualification material for the RoboCup-@Home participation in 2018. A special focus is put on novel system components and the open source contributions of our team. This year the team from Koblenz won the biggest annual scientianc robot competition in Montreal in the RoboCup@Home Open Platform track for the third time and also won the RoboCup@Home German Open for the second time. As a research highlight a novel symbolic imitation learning approach was demonstrated during the annals. The TIAGo robotic research platform was used for the first time by the team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg. Further information can be found on our project page http://homer.uni-koblenz.de.
Wikipedia is the biggest, free online encyclopaedia that can be expanded by any-one. For the users, who create content on a specific Wikipedia language edition, a social network exists. In this social network users are categorised into different roles. These are normal users, administrators and functional bots. Within the networks, a user can post reviews, suggestions or send simple messages to the "talk page" of another user. Each language in the Wikipedia domain has this type of social network.
In this thesis characteristics of the three different roles are analysed in order to learn how they function in one language network of Wikipedia and apply them to another Wikipedia network to identify bots. Timestamps from created posts are analysed to reveal noticeable characteristics referring to continuous messages, message rates and irregular behaviour of a user are discovered. Through this process we show that there exist differences between the roles for the mentioned characteristics.
We examine the systematic underrecognition of female scientists (Matilda effect) by exploring the citation network of papers published in the American Physical Society (APS) journals. Our analysis shows that articles written by men (first author, last author and dominant gender of authors) receive more citations than similar articles written by women (first author, last author and dominant gender of authors) after controlling for the journal of publication, year of publication and content of the publication. Statistical significance of the overlap between the lists of references was considered as the measure of similarity between articles in our analysis. In addition, we found that men are less likely to cite articles written by women and women are less likely to cite articles written by men. This pattern leads to receiving more citations by articles written by men than similar articles written by women because the majority of authors who published in APS journals are male (85%). We also observed Matilda effect reduces when articles are published in journals with the highest impact factors. In other words, people’s evaluation of articles published in these journals is not affected by the gender of authors significantly. Finally, we suggested a method that can be applied by editors in academic journals to reduce the evaluation bias to some extent. Editors can identify missing citations using our proposed method to complete bibliographies. This policy can reduce the evaluation bias because we observed papers written by female scholars (first author, last author, the dominant gender of authors) miss more citations than articles written by male scholars (first author, last author, the dominant gender of authors).
Das Internet der Dinge (IoT) ist ein Konzept, bestehend aus vernetzten physischen Objekten, welche in die virtuelle Welt integriert werden um aktive Teilnehmer von Geschäfts- und Alltagsprozessen zu werden (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). Es wird erwartet, dass dieses Konzept einen großen Einfluss auf Unternehmen haben wird (Council, Nic and Intelligence, 2008). Geschäftsmodelle kleiner und mittelständischer Unternehmen (KMU) sind bedroht, sollten sie den sich abzeichnenden Trend nutzen (Sommer, 2015). Daher ist das Ziel dieser Arbeit, eine exemplarische Implementierung von vernetzten Geräten in einem kleinen Unternehmen um seine Vorteile darzustellen.
Diese Arbeit verwendet Design Science Research (DSR) um einen Prototyp zu entwickeln, der auf dem Anwendungsfall einer Holzwerkstatt aufbaut. Der Prototyp besteht aus einem physischen Sensor und einer Webapplikation, welche von dem kleinen Unternehmen zur Verbesserung seiner Prozesse genutzt werden kann. Die Arbeit dokumentiert den iterativen Entwicklungsprozess der Prototypen von Grund auf zu nutzbarer Hard- und Software.
Der Hauptbeitrag dieser Arbeit ist die beispielhafte Anwendung und Nutzung von IoT in einem kleinen Unternehmen.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
Ästuare sind charakterisiert durch einen longitudinalen Salinitätsgradienten. Der Salzgehalt ist einer der wichtigsten Umweltparameter, der die Verteilung der Arten bestimmt. Heute werden Grenzen von Salinitätszonen vor allem mit Hilfe des Venedig-Systems und durch eine von Bulger et al. (1993) entwickelte Methode festgelegt. Beide Systeme wurden in homoio¬halinen Ge¬wäs¬sern entwickelt und die Einteilung in Zonen erfolgt anhand der Verteilung von Arten in Abhängigkeit vom mittleren Salzgehalt. Sie werden jedoch auch regelmäßig in poikilohalinen Systemen angewendet. Ich habe, basierend auf Langzeitdaten von Salinität und Makrozoobenthos (MZB), untersucht, ob die beiden Methoden im poikilohalinen Elbeästuar (Deutschland) anwendbar sind. Meine Ergebnisse zeigten, dass die Variabilität der Salinität und nicht die mittlere Salinität für die Verteilung der Arten in den mittleren Bereichen des Ästuars bestimmend ist. Folglich ist die Anwendung von keinem der beiden getesteten Verfahren in poikilohalinen Gewässern sinnvoll. Ich empfehle die Anwendung von Clusteranalyseverfahren zur Festlegung signifikant unterschiedlicher Salinitätszonen in poikilohalinen Systemen.
In vielen Ästuaren bildet sich eine Zone maximaler Trübung (ZmT), in der suspendiertes Material durch Zirkulationsprozesse akkumuliert. Im Elbeästuar ist diese Zone deckungsgleich mit der Zone höchster Salinitätsvariabilität und weist zudem den höchsten organischen Anteil im Sediment sowie hohe Sedimentationsraten und organische Belastungen auf. Die Stress-Gradienten-Hypothese besagt, dass unter starkem äußerem Druck wie diesem, Populationen oft unter der Kapazitätsgrenze bleiben und Konkurrenz nur von geringer Bedeutung ist. Ich habe mittels stabiler Isotopenanalyse getestet, ob Nahrungskonkurrenz in der ZmT des Elbeästuars für die häufigsten Makroinvertebraten relevant ist. Innerhalb eines Ernährungstyps zeigten die artspezifischen Isotopennischen keine oder nur eine geringe Überlappung. Folglich ist Konkurrenz um Nahrung in der ZmT nur von untergeordneter Bedeutung. Ursachen für getrennte Isotopennischen waren vor allem bedingt durch Unterschiede in Habitat (Korngröße) und Migrationsverhalten der Makroinvertebraten.
Ästuare gehören heute auf Grund anthropogener Einflüsse zu den am stärksten gefährdeten Gewässern. Das Ausmaß der Veränderungen in deren Artengemeinschaften während des letzten Jahrhunderts ist jedoch weitgehend unbekannt. Ich habe anhand historischer und aktueller Daten (1889, 1985, 1986, 2006) taxonomische und funktionale Veränderungen des MZB im Elbeästuar untersucht. Taxonomische Unterschiede zwischen den Untersuchungsjahren waren vor allem auf das Verschwinden von Arten und Auftreten anderer Arten (turnover) zurückzuführen. Funktionale Unterschiede entstanden hauptsächlich dadurch, dass Arten mit bestimmten Traits (Morphologie, Reproduktion, Entwicklung, Ernährung, Habitat) verschwanden, ohne dass diese Arten von anderen Arten mit gleichen Traits ersetzt wurden (nestedness). Artenzahl und funktioneller Reichtum waren 1985 und 1986 am niedrigsten. In den Jahren 1889 und 2006 waren sie am höchsten und nahezu gleich. Dies impliziert, dass die vom MZB im Ästuar von 1889 bereitgestellten Ökosystemfunktionen im Jahr 2006, jedoch unter veränderter taxonomischer Zusammensetzung, wieder vorhanden waren. Meine Ergebnisse verdeutlichen die hohe Relevanz von funktionaler Redundanz und funktionalem Reichtum für die Resilienz und Stabilität von Ökosystemen.
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
Verschiedene Methoden (Gewichtsverlust, elektrochemische und Sprühkorrosionsmessungen) wurden eingesetzt, um die Korrosionsinhibierung von vier Sarkosinderivaten und einer kommerziellen Verbindung als Synergist zu bewerten. Das Basismetall war kohlenstoffarmer Stahl CR4, der unter verschiedenen Bedingungen getestet wurde. Als Arbeitsmedien wurden hauptsächlich neutrales Wasser und 0.1 M NaCl eingesetzt. Der Schutzfilm wurde auf der Stahloberfläche durch direkte Apsorption der Prüfsubstanzen während des Eintauchprozesses gebildet. Ein stark verbesserter Korrosionsschutz mit direkter Korrelation zwischen Molekulargewicht und Kohlenstoffkettenlänge der Prüfsubstanzen konnte nachgewiesen werden. Die Schutzwirkung der ausgewählten Sarkosinverbindungen auf Stahl CR4 erhöht sich in 0.1 M NaCl mit zunehmender Konzentration. In allen getesteten Methoden und Konzentrationen erwies sich Oleoylsarcosin (O) als bester Inhibitor. Es wurden Wirksamkeiten bis zu 97 % in der potentiodynamischen Polarisation (PP), 83 % bei der elektrochemische Impedanzspektroskopie (EIS) und 85 % in der Gewichtsabnahme (WL) bei 100 mmol/L als höchster hier getesteten Konzentration erzielt. Der zweitbeste Inhibitor ist Myristoylsarcosin (M) mit Effektivitäten bis zu 82 % in PP, 69 % in EIS und 75 % in WL ebenfalls bei der höchsten Konzentration. Der Inhibitor mit der kürzesten Kette in dieser Testreihe ist Lauroylsarcosin (L). L ergab Schutzwirkungen von etwas über 50 % bei 75 und 100 mmol/L und unter 50 % bei 25 und 50 mmol/L in allen angewandten Methoden. Zudem werden die Gesamteffizienzen aller verwendeten Prüfsubstanzen durch längere Einwirkzeiten beim Eintauchen der CR4 Stahlproben erhöht, wie für 50 mmol/L gezeigt werden konnte. Die Untersuchung ergab 10 Minuten als beste Zeit bezüglich Kosten- und Schutzeffizienz. Der kommerzielle Inhibitor Oley-Imidazol (OI) verbesserte die Wirksamkeit von Cocoylsarcosin (C), der natürlichen Mischung aus Kokosnussöl mit Kohlenstoffkettenlängen von C8 - C18, und verbesserte den Schutz in einer 1:1 (mol) Kombination (C+OI). Hierbei stieg der Wirkungsgrad von 47 % auf 91 % in PP, von 40 % auf 84 % in EIS und von 45 % auf 82 % in WL bei der höchsten Konzentration. Mit Hilfe von Sprühkorrosionstests wurden alle vorliegenden Sarkosinsubstanzen auf Stahl CR4 in einem realistischeren System untersucht. Der beste Inhibitor nach einem 24 Stunden-Test war O, gefolgt von der Kombination C+OI und M mit entsprechenden Wirkungsgraden von bis zu 99 % (O), 80 % (C+OI) bzw. 79 % (M). Die erhaltenen Ergebnisse zeigen eine gute Stabilität der Prüfsubstanzen bezüglich des gebildeten Schutzfilms auch nach 24 h. Alle verwendeten Methoden ergaben in der aktuellen Untersuchung übereinstimmende Ergebnisse und die gleiche Reihenfolg der Inhibitoren. Darüber hinaus wird angenommen, dass der Adsorptionsprozess der Prüfsubstanzen der Langmuir-Isotherme folgt. Die Response Surface Methodik (RSM) ist eine vom Box-Behnken Design (BBD) abhängige Optimierungsmethode. Diese wurde im aktuellen System angewandt, um die optimale Effektivität für Inhibitor O beim Korrosionsschutz von Stahl CR4 in Salzwasser zu ermitteln. Hierfür wurden vier unabhängige Variablen benutzt: Inhibitorkonzentration (A), Tauchbeschichtungszeit (B), Temperatur (C) und NaCl-Konzentration (D); jeweils in drei Stufen: untere (-1), mittlere (0) und obere (+1). Nach dem vorliegenden Ergebnis hat die Temperatur als Einzelparameter den größten Einfluss auf den Schutzprozess, gefolgt von der Inhibitorkonzentration. Anhand der Berechnung ergibt sich ein optimaler Wirkungsgrad von 99 % durch folgende Parameter- und Pegelkombination: oberer Wert (+1) jeweils für Inhibitorkonzentration, Tauchbeschichtungszeit und NaCl-Konzentration sowie ein unterer Wert (-1) für die Temperatur.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.