Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249)
- Masterarbeit (91)
- Ausgabe (Heft) zu einer Zeitschrift (84)
- Bachelorarbeit (45)
- Diplomarbeit (27)
- Wissenschaftlicher Artikel (22)
- Studienarbeit (11)
- Konferenzveröffentlichung (10)
- Habilitation (4)
- Sonstiges (2)
Sprache
- Englisch (547) (entfernen)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (6)
- Software Engineering (6)
- Internet of Things (5)
- Biodiversität (4)
- Bluetooth (4)
- Bodenchemie (4)
- Landwirtschaft (4)
- Semantic Web (4)
- ecotoxicology (4)
Institut
- Fachbereich 4 (116)
- Institut für Informatik (83)
- Fachbereich 7 (78)
- Institut für Wirtschafts- und Verwaltungsinformatik (53)
- Institut für Computervisualistik (52)
- Institute for Web Science and Technologies (50)
- Institut für Management (30)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (24)
- Institut für Umweltwissenschaften (23)
- Fachbereich 8 (20)
Thousands of chemicals from daily use are being discharged from civilization into the water cycle via different pathways. Ingredients of personal care products, detergents, pharmaceuticals, pesticides, and industrial chemicals thus find their way into the aquatic ecosystems and may cause adverse impacts on the ecology. Pharmaceuticals for instance, represent a central group of anthropogenic chemicals, because of their designed potency to interfere with physiological functions in organisms. Ecotoxicological effects from pharmaceutical burden have been verified in the past. Therapeutic groups with pronounced endocrine disrupting potentials such as steroid hormones gain increasing focus in environmental research as it was reported that they cause endocrine disruption in aquatic organisms even when exposed to environmentally relevant concentrations. This thesis considers the comprehensive investigation of the occurrence of corticosteroids and progestogens in wastewater treatment plant (WWTP) effluents and surface waters as well as the elucidation of the fate and biodegradability of these steroid families during activated sludge treatment. For the first goal of the thesis, a robust and highly sensitive analytical method based on liquid chromatography-tandem mass spectrometry (LC-MS/MS) was developed in order to simultaneously determine the occurrence of around 60 mineralocorticoids, glucocorticoids and progestogens in the aquatic environment. A special focus was set to the compound selection due to the diversity of marketed synthetic steroids. Some analytical challenges have been approved by individual approaches regarding sensitivity enhancement and compound stabilities. These results may be important for further research in environmental analysis of steroid hormones. Reliable and low quantification limits are the perquisite for the determination of corticosteroids and progestogens at relevant concentrations due to low consumption volumes and simultaneously low effect-based trigger values. Achieved quantification limits for all target analytes ranged between 0.02 ng/L and 0.5 ng/L in surface water and 0.05 ng/L to 5 ng/L in WWTP effluents. This sensitivity enabled the detection of three mineralocorticoids, 23 glucocorticoids and 10 progestogens within the sampling campaign around Germany. Many of them were detected for the first time in the environment, particularly in Germany and the EU. To the best of our knowledge, this in-depth steroid screening provided a good overview of single steroid burden and allowed for the identification of predominantly steroids of each steroid
type analyzed for the first time. The frequent detection of highly potent synthetic steroids (e.g. triamcinolone acetonide, clobetasol propionate, betamethasone valerate, dienogest, cyproterone acetate) highlighted insufficient removal during conventional Summary wastewater treatment and indicated the need for regulation to control their emission since the steroid concentrations were found to be above the reported effect-based trigger values for biota. Overall, the study revealed reliable environmental data of poorly or even not analyzed steroids. The results complement the existing knowledge in this field but also providednew information which can beused particularly for compound prioritization in ecotoxicological research and environmental analysis. Based on the data obtained from the monitoring campaign, incubation experiments were conducted to enable the comparison of the biodegradability and transformation processes in activated sludge treatment for structure-related steroids under aerobic and standardized experimental conditions. The compounds were accurately selected to cover manifold structural moieties of commonly used glucocorticoids, including non-halogenated and halogenated steroids, their mono- and diesters, and several acetonide-type steroids. This approach allowed for a structure-based interpretation of the results. The obtained biodegradation rate constants suggested large variations in the biodegradability (half-lifes ranged from < 0.5 h to > 14 d). An increasing stability was identified in the order from non-halogenated steroids (e.g. hydrocortisone), over 9α-halogenated steroids (e.g. betamethasone), to C17-monoesters (e.g. betamethasone 17-valerate, clobetasol propionate), and finally to acetonides (e.g. triamcinolone acetonide), thus suggesting a strong relationship of the biodegradability with the glucocorticoid structure. Some explanations for this behavior have been received by identifying the transformation products (TPs) and elucidating individual transformation pathways. The results revealed the identification of the likelihood of transformation reactions depending on the chemical steroid structure for the first time. Among the identified TPs, the carboxylates (e.g. TPs of fluticasone propionate, triamcinolone acetonide) have been shown persistency in the subsequent incubation experiments. The newly identified TPs furthermore were frequently detected in the effluents of full-scale wastewater treatment plants. These findings emphasized i) the transferability of the lab-scale degradation experiments to real world and that ii) insufficient removals may cause adverse effects in the aquatic environment due to the ability of the precursor steroids and TPs to interact with the endocrine system in biota. For the last goal, the conceptual study for glucocorticoids was applied to progestogens.
Here, two sub-types of the steroid family frequently used for hormonal contraception were selected (17α-hydroxyprogesterone and 19-norstestosterone type). The progestogens showed a fast and complete degradation within six hours, and thus empathizes pronounced biodegradability. However, cyproterone acetate and dienogest Summary have been found to be more recalcitrant in activated sludge treatment. This was consistent with their ubiquitously occurrence during the previous monitoring campaign. The elucidation of TPs again revealed some crucial information regarding the observed behavior and highlighted furthermore the formation of hazardous TPs. It was shown that 19-nortestosterone type steroids are able to undergo aromatization at ring A in contact with activated sludge, leading to the formation of estrogen-like TPs with a phenolic moiety at ring A. In the case of norethisterone the formation of 17α-ethinylestradiol was confirmed, which is a well-known potent synthetic estrogen with elevated ecotoxicological potency. Thus, the results indicated for the very first time an unknown source of estrogenic compounds, particularly for 17α-ethinylestradiol. In conclusion, some steroids were found to be very stable in activated sludge treatment, others degrade well, and others which do degrade but predominantly to active TPs depending on their chemical structure. Fluorinated acetal steroids such as triamcinolone acetonide and fluocinolone acetonide are poorly biodegradable, which is reflected in high concentrations detected ubiquitously in WWTP effluents. Endogenous steroids and their most related synthetic once such as hydrocortisone, prednisolone or 17α-hydroxyprogesterone are readily biodegradable. Regardless their high influent concentrations, they are almost completely removed in conventional WWTPs. Steroids between this range have been found to form elevated quantities of TPs which are partially still active, which particularly the case for betamethasone, fluticasone propionate, cyproterone acetate or dienogest. The thesis illustrates the need for an extensive evaluation of the environmental risks and carried out that corticosteroids and progestogens merit more attention in environmental regulatory and research than it is currently the case
In dieser Arbeit wird die Geschwindigkeit des Simulationscodes zur Pho-
tonenausbreitung beim IceCube-Projekt (clsim) optimiert. Der Prozess der
GPU-Code-Analyse und Leistungsoptimierung wird im Detail beschrie-
ben. Wenn beide Codes auf der gleichen Hardware ausgeführt werden,
wird ein Speedup von etwa 3x gegenüber der ursprünglichen Implemen-
tierung erreicht. Vergleicht man den unveränderten Code auf der derzeit
von IceCube verwendeten Hardware (NVIDIA GTX 1080) mit der opti-
mierten Version, die auf einer aktuellen GPU (NVIDIA A100) läuft, wird
ein Speedup von etwa 9,23x beobachtet. Alle Änderungen am Code wer-
den vorgestellt und deren Auswirkung auf die Laufzeit und Genauigkeit
der Simulation diskutiert.
Der für die Optimierung verfolgte Weg wird dann in einem Schema
verallgemeinert. Programmierer können es als Leitfaden nutzen, um große
und komplexe GPU-Programme zu optimieren. Darüber hinaus wird die
per warp job-queue, ein Entwurfsmuster für das load balancing innerhalb
eines CUDA-Thread-Blocks, im Detail besprochen.
Scientific and public interest in epidemiology and mathematical modelling of disease spread has increased significantly due to the current COVID-19 pandemic. Political action is influenced by forecasts and evaluations of such models and the whole society is affected by the corresponding countermeasures for containment. But how are these models structured?
Which methods can be used to apply them to the respective regions, based on real data sets? These questions are certainly not new. Mathematical modelling in epidemiology using differential equations has been researched for quite some time now and can be carried out mainly by means of numerical computer simulations. These models are constantly being refinded and adapted to corresponding diseases. However, it should be noted that the more complex a model is, the more unknown parameters are included. A meaningful data adaptation thus becomes very diffcult. The goal of this thesis is to design applicable models using the examples of COVID-19 and dengue, to adapt them adequately to real data sets and thus to perform numerical simulations. For this purpose, first the mathematical foundations are presented and a theoretical outline of ordinary differential equations and optimization is provided. The parameter estimations shall be performed by means of adjoint functions. This procedure represents a combination of static and dynamical optimization. The objective function corresponds to a least squares method with L2 norm which depends on the searched parameters. This objective function is coupled to constraints in the form of ordinary differential equations and numerically minimized, using Pontryagin's maximum (minimum) principle and optimal control theory. In the case of dengue, due to the transmission path via mosquitoes, a model reduction of an SIRUV model to an SIR model with time-dependent transmission rate is performed by means of time-scale separation. The SIRUV model includes uninfected (U) and infected (V ) mosquito compartments in addition to the susceptible (S), infected (I) and recovered (R) human compartments, known from the SIR model. The unknwon parameters of the reduced SIR model are estimated using data sets from Colombo (Sri Lanka) and Jakarta (Indonesia). Based on this parameter estimation the predictive power of the model is checked and evaluated. In the case of Jakarta, the model is additionally provided with a mobility component between the individual city districts, based on commuter data. The transmission rates of the SIR models are also dependent on meteorological data as correlations between these and dengue outbreaks have been demonstrated in previous data analyses. For the modelling of COVID-19 we use several SEIRD models which in comparison to the SIR model also take into account the latency period and the number of deaths via exposed (E) and deaths (D) compartments. Based on these models a parameter estimation with adjoint functions is performed for the location Germany. This is possible because since the beginning of the pandemic, the cumulative number of infected persons and deaths
are published daily by Johns Hopkins University and the Robert-Koch-Institute. Here, a SEIRD model with a time delay regarding the deaths proves to be particularly suitable. In the next step, this model is used to compare the parameter estimation via adjoint functions with a Metropolis algorithm. Analytical effort, accuracy and calculation speed are taken into account. In all data fittings, one parameter each is determined to assess the estimated number of unreported cases.
This thesis focuses on approximate inference in assumption-based argumentation frameworks. Argumentation provides a significant idea in the computerization of theoretical and practical reasoning in AI. And it has a close connection with AI, engaging in arguments to perform scientific reasoning. The fundamental approach in this field is abstract argumentation frameworks developed by Dung. Assumption-based argumentation can be regarded as an instance of abstract argumentation with structured arguments. When facing a large scale of data, a challenge of reasoning in assumption-based argumentation is how to construct arguments and resolve attacks over a given claim with minimal cost of computation and acceptable accuracy at the same time. This thesis proposes and investigates approximate methods that randomly select and construct samples of frameworks based on graphical dispute derivations to solve this problem. The presented approach aims to improve reasoning performance and get an acceptable trade-off between computational time and accuracy. The evaluation shows that for reasoning in assumption-based argumentation, in general, the running time is reduced with the cost of slightly low accuracy by randomly sampling and constructing inference rules for potential arguments over a query.
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Previous research concerned with early science education revealed that guided play can support young children’s knowledge acquisition. However, the questions whether guided play maintains other important prerequisites such as children’s science self-concept and how guided play should be implemented remain unanswered. The present dissertation encompasses three research articles that investigated 5- to 6-year-old children’s science knowledge, science theories, and science self-concept in the stability domain and their relation to interindividual prerequisites. Moreover, the articles examined whether children’s science knowledge, science theories, and science self-concept can be supported by different play forms, i.e., guided play with material and verbal scaffolds, guided play with material scaffolds, and free play. The general introduction of the present dissertation first highlights children’s cognitive development, their science self-concept, and interindividual prerequisites, i.e., fluid and crystallised intelligence, mental rotation ability, and interest in block play. These prerequisites are applied to possible ways of supporting children during play. The first article focused on the measurement of 5-to-6-year-old children’s stability knowledge and its relation to interindividual prerequisites. Results suggested that children’s stability knowledge could be measured reliably and validly, and was related to their fluid and crystallised intelligence. The second article was concerned with the development of children’s intuitive stability theories over three points of measurement and the effects of guided and free play, children’s prior theories as well as their intelligence on these intuitive theories. Results implied that guided play with material and verbal scaffolds supported children’s stability theories more than the other two play forms, i.e., guided play with material scaffolds and free play. Moreover, consistency of children’s prior theories, their fluid and crystallised intelligence were related to children’s theory adaptation after the intervention. The third article focused on the effect of the playful interventions on children’s stability knowledge and science self-concept over three points of measurement. Furthermore, the reciprocal effects between knowledge acquisition and science self-concept were investigated. Results implied that guided play supported knowledge acquisition and maintained children’s science self-concept. Free play did not support children’s stability knowledge and decreased children’s science self-concept. No evidence for reciprocal effects between children’s stability knowledge and their science self-concept was found. Last, in a general discussion, the findings of the three articles are combined and reflected amidst children’s cognitive development. Summarising, the present dissertation shows that children’s science knowledge, science theories, and science self-concept can be supported through guided play that considers children’s cognitive development.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
Viele chemische Verbindungen, einschließlich Spurenelemente aus natürlichen und anthropogenen Quellen, verbleiben temporär oder endgültig in den Sedimenten der Oberflächengewässer. Ob diese als Quelle oder Senke von Metallen und Metalloiden (Metall(oid)e) fungieren, hängt von der Dynamik der biogeochemischen Prozesse ab, die an der Wasser-Sediment-Grenzschicht (sediment water interface - SWI) ablaufen. Wichtige Informationen zu biogeochemischen Prozessen sowie zur Exposition, zum Verbleib und zum Transport von Schadstoffen an der SWI lassen sich durch die Ermittlung von Konzentrationsprofilen im Sedimentporenwasser gewinnen. Dabei besteht die Herausforderung zum einen darin eine räumliche Auflösung zu realisieren, die es erlaubt, bestehende Gradienten adäquat zu erfassen und zu gleich hinreichend viele Parameter aufzunehmen, um die komplexen Prozesse zu verstehen. Zum anderen gilt es die Bildung von Probenahme-Artefakten zu verhindern, die durch die labile Natur der SWI sowie die steilen biogeochemischen Gradienten verursacht werden.
Vor diesem Hintergrund wurde im ersten Teil dieser Arbeit ein System zur automatisierten, minimal-invasiven Untersuchung der SWI entwickelt und erprobt. Das System ermöglicht die Beprobung des Sedimentporenwassers ungestörter oder manipulierter Sedimente bei gleichzeitiger Erfassung von Parametern wie Redoxpotential, Sauerstoffgehalt und pH-Wert. Im Rahmen eines Inkubationsexperimentes wurde der Einfluss von Versauerung und mechanischer Störung (Resuspension) auf die Mobilität von 13 Metall(oid)en untersucht, die mittels Tripel-Quadrupol induktiv gekoppelter Plasma-Massenspektrometrie (ICP-QQQ-MS) quantifiziert wurden. Während die meisten Metalle in Folge von Sulfid-Verwitterung freigesetzt wurden hatte die mechanische Störung einen großen Einfluss auf die Mobilität der oxidbildenden Elemente As, Mo, Sb, U und V. Zusätzlich wurde gezeigt, dass das Probenahme-System zudem Optionen zur Untersuchung der Größenfraktionierung von Metall(oid)en sowie der Speziierung von As(III/V) und Sb(III/V) bietet.
Im zweiten Teil dieser Arbeit wurde der Fokus - mit einem ähnlichen experimentellen Design - auf die Prozesse gelegt, die zur Freisetzung von Metall(oid)en führen. Zu diesem Zweck wurden zwei Inkubationsexperimente mit unterschiedlicher Sauerstoffversorgung parallel durchgeführt. Erstmals wurden mittels ICP-QQQ-MS die Nichtmetalle Kohlenstoff, Phosphor und Schwefel in einem Analyselauf gemeinsam mit 13 Metall(oid)en in Sedimentporenwasser quantifiziert. Die Größenfraktionierung der Metall(oid)e wurde über den gesamten Verlauf der Experimente überwacht. Es bestätigte sich, dass Sediment-Resuspension die Mobilität von Metalloiden wie As, Sb und V fördert, während die Freisetzung der meisten Metalle weitgehend auf die Verwitterung von Pyrit zurückzuführen war. Der kolloidale Beitrag (0,45 - 16 μm) zur Mobilisierung war nur für wenige Elemente relevant.
Schließlich wurde das Probenahmesystem im Rahmen eines neuen Ansatzes zur Sedimentbewertung eingesetzt. Dabei wurden ungestörte Sedimentkerne unterschiedlich kontaminierter Positionen im Trave-Ästuar untersucht und neben 16 Metall(oid)en, die Nichtmetalle C, P und S sowie die Ionen NH4+, PO43- und SO42- berücksichtigt. Durch den ersten umfangreichen Vergleich mit in-situ Dialyse-basierter Porenwasserbeprobung wurde die Eignung des entwickelten Ansatzes zur Erfassung der Feldbedingungen nachgewiesen. Die Porenwasseruntersuchungen zusammen mit ergänzenden Resuspensionsexperimenten in biogeochemischen Mikrokosmen und sequentieller Extraktion ergaben, dass das am geringsten „belastetste“ Sediment des Untersuchungsgebiets das größte Risiko für die Freisetzung von Metall(oid)en darstellt. Jedoch betrugen die potenziell freigesetzten Mengen je kg Sediment nur wenige Promille der durchschnittlichen täglichen Fracht der Trave.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Artificial intelligence (AI) is of rising importance in these days. AI is increasingly used in various company fields. Nonetheless, no high-quality scientific sources could be found stating the use of AI in the field of leadership. This research gap is addressed with this elaboration by performing expert interviews with leaders. In total seventeen companies could be questioned. The results indicate that AI is not widely used in leadership yet since only one company uses it currently and just about 10% of the participants plan the implementation in the closer feature. While the following items ex- plain why companies want to use AI in leadership: Chances for automation, time and cost savings, many important disadvantages and issues prevent companies from actively using it now: No areas of application are known, no need justifies the use, human interactions as a key aspect of leadership is reduced and it is hard to collect all necessary data. Beyond that, it was aimed to identify changes in the field of leadership through the use of AI. This objective could not be addressed due to the limited number of participants using AI in leadership.
Keywords: Leadership, artificial intelligence, transformation, state-of-use
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Graph-based data formats are flexible in representing data. In particular semantic data models, where the schema is part of the data, gained traction and commercial success in recent years. Semantic data models are also the basis for the Semantic Web - a Web of data governed by open standards in which computer programs can freely access the provided data. This thesis is concerned with the correctness of programs that access semantic data. While the flexibility of semantic data models is one of their biggest strengths, it can easily lead to programmers accidentally not accounting for unintuitive edge cases. Often, such exceptions surface during program execution as run-time errors or unintended side-effects. Depending on the exact condition, a program may run for a long time before the error occurs and the program crashes.
This thesis defines type systems that can detect and avoid such run-time errors based on schema languages available for the Semantic Web. In particular, this thesis uses the Web Ontology Language (OWL) and its theoretic underpinnings, i.e., description logics, as well as the Shapes Constraint Language (SHACL) to define type systems that provide type-safe data access to semantic data graphs. Providing a safe type system is an established methodology for proving the absence of run-time errors in programs without requiring execution. Both schema languages are based on possible world semantics but differ in the treatment of incomplete knowledge. While OWL allows for modelling incomplete knowledge through an open-world semantics, SHACL relies on a fixed domain and closed-world semantics. We provide the formal underpinnings for type systems based on each of the two schema languages. In particular, we base our notion of types on sets of values which allows us to specify a subtype relation based on subset semantics. In case of description logics, subsumption is a routine problem. For
the type system based on SHACL, we are able to translate it into a description
logic subsumption problem.
In vielen Teilen der Welt, vor allem in Subsahara-Afrika, ist Wasserknappheit bereits ein allgegenwärtiges Problem. Doch die Trockenjahre 2018 und 2019 zeigten, dass auch in Deutschland die Wasserressourcen endlich sind. Projektionen und Vorhersagen für die nächsten Jahrzehnte weisen zudem darauf hin, dass durch den steigenden Einfluss des Klimawandels die Erneuerungsraten der bestehenden Wasserressourcen zurückgehen, die Entnahmemengen aber aufgrund von Populationswachstum steigen werden. Es ist demnach an der Zeit, alternative und nachhaltige Methoden zu finden, die derzeit vorhandenen Wasserressourcen optimal zu nutzen. Daher rückte in den vergangenen Jahren die Wiederverwendung von geklärtem Abwasser zur Bewässerung landwirtschaftlicher Flächen und/oder der Grundwasseranreicherung in den Fokus der Wissenschaft. Dabei ist aber zu berücksichtigen, dass in geklärtem Abwasser sogenannte Spurenstoffe zu finden sind, d.h. Substanzen, die durch anthropogenen Einfluss in den Wasserkreislauf gelangen. Dabei handelt es sich z.B. um Pharmazeutika, Pestizide und Industriechemikalien, aber auch um Metabolite, die im menschlichen Körper gebildet werden und in das Abwasser gelangen. Durch die Wasseraufbereitungsschritte in den Kläranlagen als auch durch biologische, chemische und physikalische Prozesse in der Bodenpassage bei der Wiederverwendung des geklärten Abwassers werden diese Spurenstoffe zu anderen Substanzen, den Transformationsprodukten (TPs), umgewandelt, die das Spektrum der Spurenstffe zusätzlich erweitern.
Trotz der Tatsache, dass das Vorhandensein von Human-Metaboliten und TPs in ungeklärtem und geklärten Abwasser seit langem bekannt ist, werden sie in gängigen Routine-Messmethoden nur selten berücksichtigt. Daher war es ein erstes Ziel dieser Dissertation eine Analyse-Methode zu erstellen, basierend auf Flüssigchromatographie-Tandem Massenspektrometrie (LC-MS/MS), die ein möglichst breites Spektrum an Spurenstoffen inklusive bekannter Metabolite und TPs enthält. Die entwickelte Multi-Analyt-Methode umfasst insgesamt 80 Ausgangssubstanzen und 74 Metabolite und TPs verschiedener Substanzklassen und ist für die Anwendung in verschiedenen Wassermatrices (Zu- und Ablauf von Kläranlagen, Oberflächenwasser und Grundwasser aus einer Uferfiltrationsanlage) validiert. Dabei wurde auch der Einfluss der MS-Parameter auf die Qualität der Analysedaten untersucht. Trotz der hohen Anzahl an Substanzen konnte eine ausreichende Anzahl an Datenpunkten je Peak generiert werden, wodurch eine hohe Empfindlichkeit und Präzision sowie eine gute Wiederfindung für alle Matrices erreicht wurden. Die Auswahl der Analyten erwies sich als relevant für die Untersuchung von Umweltmatrices, da 95% der Substanzliste in mindestens einer Probe nachgewiesen wurden. Mehrere Spurenstoffe, die bisher nicht im Fokus der gegenwärtigen Multi-Analyt-Methoden standen, wurden bei erhöhten Konzentrationen im Wasserkreislauf quantifiziert (z.B. Oxypurinol). Die Relevanz der Untersuchung von Metaboliten und TPs zeigte sich durch den Nachweis von z.B. Clopidogrel-Säure und Valsartansäure mit deutlich höheren Konzentrationen als ihre Ausgangssubstanzen. Valsartansäure konnte zudem sogar im Uferfiltrat detektiert werden.
Durch die Einbindung der Metabolite, die durch biologische Prozesse im Körper entstehen, und den biologischen und chemischen TPs, eignet sich die Multi-Analyt-Methode auch zur Aufklärung von Abbaumechanismen in natürlichen Behandlungssystemen zur Wasserwiederverwendung, wozu es in der Literatur bisher nur wenige Angaben gibt. Im Rahmen der Dissertation wurden Proben aus zwei Systemen analysiert, einem im Pilotmaßstab entwickelten oberirdischen sequenziellen Biofiltrationssystem (SBF) und einem großmaßstäblichen Bodenpassagen-System (SAT). Im SBF-System konnten hauptsächlich biologische Abbaumechanismen beobachtet werden, was durch die Entstehung biologischer TPs deutlich gezeigt wurde. Die Effizienz des Abbaus wurde dabei durch eine Zwischenbelüftung erhöht, die oxische Bedingungen hervorrief. Im SAT-System kam es zu einer Kombination von Bioabbau- und Sorptionsprozessen. Es wurde beobachtet, dass bei einigen biologisch abbaubaren Spurenstoffen ein geringerer Abbau erreicht wurde als im SBF-System, was auf unterschiedliche Redox-Bedingungen und eine andere mikrobielle Gemeinschaft zurückzuführen war. Als Vorteil des SAT-Systems gegenüber des SBF erwies sich die Sorptionsfähigkeit des natürlichen Bodens. Vor allem positiv geladene Spurenstoffe zeigten eine Entfernung aufgrund von ionischen Wechselwirkungen mit negativ geladenen Bodenpartikeln. Auf der Grundlage ihrer physikalisch-chemischen Eigenschaften bei Umgebungs-pH, ihres Entfernungsgrades in den untersuchten Systemen und ihres Vorkommens im einfließenden Wasser konnte eine Auswahl von prozessbasierten Indikatorsubstanzen vorgeschlagen werden.
In den vorherigen Arbeiten wurde in Kläranlagenabläufen häufig ein Spurenstoff in erhöhten Konzentrationen nachgewiesen, der bisher wenig im Fokus der Umweltforschung stand: das Antidiabetikum Sitagliptin (STG). STG zeigt nur eine geringe Abbaubarkeit in biologischen Systemen. Daher wurde untersucht, inwieweit eine chemische Aufbereitung mittels Ozonung einen Abbau gewährleisten kann. STG weist in seiner Struktur ein aliphatisches primäres Amin als entscheidende Angriffsstelle für das Ozonmolekül auf. In der Literatur finden sich kaum Informationen zum Verhalten dieser funktionellen Gruppe während der Ozonung. Die in dieser Dissertation erzielten Ergebnisse können daher exemplarisch für andere Spurenstoffe mit Amingruppen herangezogen werden. Es zeigte sich eine pH-abhängige Abbaukinetik aufgrund der Protonierung des primären Amins bei niedrigen pH-Werten. Bei für die Umwelt und Kläranlagen typischen pH-Werten im Bereich 6 – 8 wies STG Abbaukinetiken mittels Ozon im Bereich 103 M-1s-1 auf, mit einem vollständigen Abbau kann allerdings erst bei deutlich höheren pH-Werten > 9 gerechnet werden. Die Transformation des primären Amins zu einer Nitro-Gruppe wurde als Hauptabbaumechanismus in der Ozonung identifiziert. Ebenfalls wurde die Entstehung weiterer TPs wie z.B. eines Diketons und Trifluoressigsäure (TFA) beobachtet. Untersuchungen an einer Pilotanlage, bei der die Ozonung unter realen Bedingungen mit dem Ablauf einer konventionellen Kläranlage durchgeführt wurde, bestätigte die Ergebnisse der Laboruntersuchungen: STG wurde auch bei einer hohen Ozondosis nicht vollständig entfernt und die Nitro-Verbindung erwies sich als Haupt-TP, das weder bei weiterer Ozonung noch in einer nachgeschalteten biologischen Behandlung abgebaut wurde. Es ist daher davon auszugehen, dass unter realen Bedingungen sowohl eine Restkonzentration an STG als auch das Haupt-TP sowie weitere TPs wie TFA im Ablauf einer Kläranlage bestehend aus konventioneller biologischer Aufreinigung, Ozonung und nachgeschalteter biologischer Aufreinigung auffindbar sind.
Successful export sectors in manufacturing and agribusiness are important drivers of structural transformation in Sub-Sahara African countries. Backed by industrial policies and active state involvement, a small number of successful productive export sectors has emerged in Sub-Saharan Africa. This thesis asks the question: How do politics shape the promotion of export-driven industrialisation and firm-level upgrading in Sub-Saharan Africa? It exemplifies this question with an in-depth, qualitative study of the cashew processing industry in Mozambique in the period from 1991 until 2019. Mozambique used to be one of the world’s largest producers and processors of cashew nuts in the 1960s and 1970s. At the end of the 20th century, the cashew processing industry broke down completely but has re-emerged as one of the country’s few successful agro-processing exports.
The thesis draws on theoretical approaches from the fields of political science, notably the political settlements framework, global value chain analysis and the research on technological capabilities to explore why the Mozambican Government supported the cashew processing industry and how Mozambican cashew processors acquired the technological capabilities needed to access the global cashew value chain and to upgrade. It makes an important theoretical contribution by linking the political settlements framework and the literature on upgrading in global value chains to study how politics shaped productive sector promotion and upgrading in the Mozambican cashew processing industry. The findings of the thesis are based on extensive primary data, including 58 expert interviews and 10 firm surveys, that was collected in Mozambique in 2018 as well as a broad base of secondary literature.
The thesis argues that the Mozambican Government supported the cashew processing industry because it became important for the Government’s political survival. Promoting the cashew sector formed part of an electoral strategy for the ruling FRELIMO coalition and a means to keep FRELIMO factions united by offering economic opportunities to key constituencies. In 1999, it adopted a protectionist cashew law that created strong incentives for cashew processing in Mozambique. This not only facilitated the re-emergence of the cashew processing industry after its breakdown. The law and the active involvement of the National Cashew Institute (INCAJU) also affected the governance of the local cashew value chain, the creation of backward linkages, and the upgrading paths of cashew processors. The findings of the thesis suggest that the cashew law reduced the pressure on the cashew processing industry to upgrade. The law further created opportunities for formal and informal rent creation for members of the political elite and lower level FRELIMO officials that prevented a far-reaching reform of the law. The thesis shows that international buyers do not promote upgrading among Sub-Sahara African firms in global value chains with market-based or modular governance. Moreover, firms that operate in countries where industrial policies are not enforced effectively cannot draw on the support of government institutions to enhance their capabilities and to upgrade. Firms therefore mainly depended on costly learning channels at firm level, e.g. learning by doing or hiring skilled labour, and/or on technical assistance from donors to build the technological capabilities needed to access global value chains and to remain competitive.
The findings of the thesis suggest that researchers, governments, development practitioners and consultants need to rethink their understanding of upgrading in GVCs in four ways. First, they need to move away from understanding upgrading in terms of moving towards more complex, higher value-added activities in GVCs (functional upgrading). Instead, it is important to consider the potential of other, more realistic types of upgrading for firms in low-income countries, such reducing risks by diversifying suppliers and buyers or increasing rewards by making production processes more efficient. Second, they need to replace an overly positive view on upgrading that neglects possible side-effects at sector and/or country level. Third, GVC participation on its own does not promote upgrading among local supplier firms in Sub-Saharan Africa. The interests of lead firms and Sub-Sahara African supplier firms may not be aligned or even conflicting. Targeted industrial policies and the creation of institutions that effectively promote capability building among firms therefore become even more important. Finally, upgrading needs to be understood as a process that is not only shaped by interactions between firms, but also by local domestic politics.
The findings of the thesis are highly relevant for scholars from the fields of political science, development studies, and economics. Its practical implications and tools, e.g. a technological capabilities matrix for the cashew industry, are of interest for development practitioners, members of public institutions in Sub-Sahara African countries, local entrepreneurs, and representatives of local business associations that are involved in promoting export sectors and upgrading among local firms.
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
Rivers play an important role in the global water cycle, support biodiversity and ecological integrity. However, river flow and thermal regimes are heavily altered in dammed rivers. These impacts are being exacerbated and become more apparent in rivers fragmented by multiple dams. Recent studies mainly focused on evaluating the cumulative impact of cascade reservoirs on flow or thermal regimes, but the role of upstream reservoirs in shaping the hydrology and hydrodynamics of downstream reservoirs remains poorly understood. To improve the understanding of the hydrodynamics in cascade reservoirs, long-term observational data are used in combination with numerical modeling to investigate the changes in flow and thermal regime in three cascade reservoirs at the upper reach of the Yangtze River. The three studied reservoirs are Xiluodu (XLD), Xiangjiaba (XJB) and Three Gorges Reservoir (TGR). In addition, the effects of single reservoir operation (at seasonal/daily time scale) on hydrodynamics are examined in a large tributary of TGR. The results show that the inflow of TGR has been substantially altered by the two upstream reservoirs with a higher discharge in spring and winter and a reduced peak flow in summer. XJB had no obvious contribution to the variations in inflow of TGR. The seasonal water temperature of TGR was also widely affected by the upstream two reservoirs, i.e., an increase in winter and decrease in spring, associated with a delay in water temperature rise and fall. These effects will probably be intensified in the coming years due to the construction of new reservoirs. The study also underlines the importance of reservoir operation in shaping the hydrodynamics of TGR. The seasonal dynamics of density currents in a tributary bay of TGR are closely related to seasonal reservoir operations. In addition, high-frequency water level fluctuations and flow velocity variations were observed in response to periodic tributary bay oscillations, which are driven by the diurnal discharge variations caused by the operation of TGR. As another consequence of operation of cascade reservoirs, the changes in TGR inflow weakened spring thermal stratification and caused warming in spring, autumn and winter. In response to this change, the intrusions from TGR occurred more frequently as overflow and earlier in spring, which caused a sharp reduction in biomass and frequency of phytoplankton blooms in tributary bays of TGR. This study suggests that high-frequency bay oscillations can potentially be used as an efficient management strategy for controlling algal blooms, which can be included in future multi-objective ecological conservation strategies.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Echzeitbetriebssysteme für Systeme mit gemischten Kritikalitäten müssen unterschiedliche Arten von Software, wie z.B. Echtzeitanwendungen und Allzweckanwendungen, gleichzeitig unterstützen. Dabei müssen sie eine solide räumliche und zeitliche Isolation zwischen unabhängigen Softwarekomponenten bieten. Daher fokussieren sich aktuelle Echtzeitbetriebssysteme hauptsächlich auf Vorhersagbarkeit und ein berechenbares Worst-Case-Verhalten.
Allerdings bieten Allzweck-Betriebssysteme wie Linux häufig effizientere, aber weniger deterministische Mechanismen, welche die durchschnittliche Ausführungszeit signifikant erhöhen. Diese Thesis befasst sich mit der Kombination der beiden gegensätzlichen Anforderungen und zeigt Mechanismen zur Thread-Synchronisation mit einem effizienten Durchschnittsverhalten, ohne jedoch die Vorhersagbarkeit und das Worst-Case-Verhalten zu beeinträchtigen. Diese Thesis untersucht und bewertet den Entwurfsraum von Abkürzungen (engl. fast paths) bei der Umsetzung von typischen blockierenden Synchronisationsmechanismen wie Mutexen, Bedingungsvariablen, Zähl-Semaphoren, Barrieren oder Nachrichtenwarteschlangen. Der Ansatz ist dabei, unnötige Systemaufrufe zu vermeiden. Systemaufrufe haben im Vergleich zu anderen Prozessoroperationen, die im Benutzermodus verfügbar sind, wie z.B. atomaren Operationen, höhere Kosten. Insbesondere erforscht die Thesis Futexe, ein aktuelles Design für blockierende Synchronisationsmechanismen in Linux, welches den konkurrenzfreien Fall der Synchronisierung mithilfe atomarer Operationen im Benutzermodus löst und den Kern nur aufruft, um Threads zu suspendieren und aufzuwecken. Die Thesis untersucht auch nicht-unterbrechbare Monitore mit aktivem Warten. Dort wird ein effizienter Mechanismus mit Prioritätsschranken verwendet, um das sogenannte Lock-Holder-Preemption-Problem ohne Systemaufrufe zu vermeiden. Ebenfalls werden passende niedere Kernprimitive beschrieben, die effiziente Warte- und Benachrichtigungsoperationen ermöglichen. Die Evaluation zeigt, dass die vorgestellten Ansätze die durchschnittliche Leistung vergleichbar zu aktuellen Ansätzen in Linux verbessern. Gleichzeitig zeigt eine Analyse des Worst-Case Zeitverhaltens, dass die Ansätze nur konstante oder begrenzte zeitliche Mehraufwände auf der Ebene des Betriebssystemkerns benötigen. Die Nutzung dieser Abkürzungen ist ein lohnender Ansatz für den Entwurf von Systemen, die nicht nur Echtzeitanforderungen erfüllen, sondern auch Allzweckanwendungen gut unterstützen sollen.
Although most plastic pollution originates on land, current research largely remains focused on aquatic ecosystems. Studies pioneering terrestrial microplastic research have adapted analytical methods from aquatic research without acknowledging the complex nature of soil. Meanwhile, novel methods have been developed and further refined. However, methodical inconsistencies still challenge a comprehensive understanding of microplastic occurrence and fate in and on soil. This review aims to disentangle the variety of state-of-the-art sample preparation techniques for heterogeneous solid matrices to identify and discuss best-practice methods for soil-focused microplastic analyses. We show that soil sampling, homogenization, and aggregate dispersion are often neglected or incompletely documented. Microplastic preconcentration is typically performed by separating inorganic soil constituents with high-density salt solutions. Not yet standardized but currently most used separation setups involve overflowing beakers to retrieve supernatant plastics, although closed-design separation funnels probably reduce the risk of contamination. Fenton reagent may be particularly useful to digest soil organic matter if suspected to interfere with subsequent microplastic quantification. A promising new approach is extraction of target polymers with organic solvents. However, insufficiently characterized soils still impede an informed decision on optimal sample preparation. Further research and method development thus requires thorough validation and quality control with well-characterized matrices to enable robust routine analyses for terrestrial microplastics.
Schizophrenia is a chronic mental health disorder, which changes rapidly the life of the persons and their families, who suffer from it. It causes high biological and psychological vulnerability as well as cognitive, emotional and behavioral disorders. Nowadays, evidence-based pharmacotherapy and psychotherapy are available aiming the rehabilitation and recovery of individuals with schizophrenia. A democratic society is obliged to give these people the opportunity to have an access to those treatments.
The following three published studies present this dissertation thesis and have a common focus on the implementation of evidence-based psychotherapy in individuals with schizophrenia.
The first study evaluates the efficacy of the Integrated Psychological Therapy (IPT) in Greece, one of the most evaluated rehabilitation programs. IPT was compared to
Treatment as Usual (TAU) in a randomized controlled trial (RCT) with 48 individuals with schizophrenia. Significant effects favouring IPT were found in working memory,
in social perception, in negative symptoms, in general psychopathology and in insight. This study supports evidence for the efficacy of IPT in Greece.
The second study evaluates a second hypothesis, when IPT is more and less effective regarding treatment resistant schizophrenia (TRS) and non treatment resistant
schizophrenia (NTRS). It is a part of the first paper. Significant effects favouring NTRS were found for verbal memory, for symptoms, for functioning and quality of
life. Effect sizes showed superiority of NTRS in comparison to TRS. IPTTRS showed on the other side some significant improvements. This study presents the initial findings of a larger study to be conducted internationally for the first time.
The third study is a systematic review, which aims to evaluate the efficacy of Cognitive Behavioral Therapy (CBT), of Meta Cognitive Therapy (MCT), Metacognitive Training (MCTR), Metacognitive Reflection and Insight Therapy
(MERIT), of various Rehabilitation Programs and Recovery Programs in individuals with schizophrenia. 41 RCTs and 12 Case Studies were included. The above interventions are efficacious in the improvement of cognitions, symptoms, functional outcome, insight, self-esteem, comorbid disorders and metacognitive capacity.
The three studies provide insight regarding the importance of evidence-based psychotherapy in persons with schizophrenia leading to recovery and reintegration into
society. Future RCTs with larger samples and long-term follow up, combining evidence-based psychotherapies for individuals with schizophrenia need to be done.
This thesis examined two specific cases of point and diffuse pollution, pesticides and salinisation, which are two of the most concerning stressors of Germany’s freshwater bodies. The findings of this thesis were organized into three major components, of which the first component presents the contribution of WWTPs to pesticide toxicity (Chapter 2). The second component focuses on the current and future background salt ion concentrations under climate change with the absence of anthropogenic activities (Chapter 3). Finally, the third major component shows the response of invertebrate communities in terms of species turnover to levels of salinity change, considered as a proxy for human-driven salinisation (Chapter 4).
Die Material Point Method (MPM) hat sich in der Computergrafik als äußerst fähige Simulationsmethode erwiesen, die in der Lage ist ansonsten schwierig zu animierende Materialien zu modellieren [1, 2]. Abgesehen von der Simulation einzelner Materialien stellt die Simulation mehrerer Materialien und ihrer Interaktion weitere Herausforderungen bereit. Dies ist Thema dieser Arbeit. Es wird gezeigt, dass die MPM durch die Fähigkeit Eigenkollisionen implizit handzuhaben ebenfalls in der Lage ist Kollisionen zwischen Objekten verschiedenster Materialien zu beschreiben, selbst, wenn verschiedene Materialmodelle eingesetzt werden. Dies wird dann um die Interaktion poröser Materialien wie in [3] erweitert, was ebenfalls gut mit der MPM integriert. Außerdem wird gezeigt das MPM auf Basis eines einzelnen Gitters als Untermenge dieses Mehrgitterverfahrens betrachtet werden kann, sodass man das gleiche Verhalten auch mit mehreren Gittern modellieren kann. Die poröse Interaktion wird auf beliebige Materialien erweitert, einschließlich eines frei formulierbaren Materialinteraktionsterms. Das Resultat ist ein flexibles, benutzersteuerbares Framework das unabhängig vom Materialmodell ist. Zusätzlich wird eine einfache GPU-Implementation der MPM vorgestellt, die die Rasterisierungspipeline benutzt um Schreibkonflikte aufzulösen. Anders als andere Implementationen wie [4] ist die vorgestellte Implementation kompatibel mit einer Breite an Hardware.
In this thesis we examined the question whether personality traits of early child care workers influence process quality in preschool.
Research has shown that in educational settings such as preschool, pedagogical quality affects children’s developmental outcome (e.g. NICHD, 2002; Peisner-Feinberg et al., 1999). A substantial part of pedagogical quality known to be vital in this respect is the interaction between teacher and children (e.g., Tietze, 2008). Results of prior classroom research indicate that the teachers’ personality might be an important factor for good teacher-child-interaction (Mayr, 2011). Thus, personality traits might play a vital role for the interaction in preschool. Therefore, the aims of this thesis were to a) identify pivotal personality traits of child care workers, b) assess ideal levels of the identified personality traits and c) examine the relationship between pivotal personality traits and process quality. On that account, we conducted two requirement analyses and a video study. The results of these studies showed that subject matter experts (parents, child care workers, lecturers) partly agreed as to which personality traits are pivotal for child care workers. Furthermore, the experts showed high consensus with regard to the minimum, ideal and maximum personality trait profiles. Furthermore, child care workers whose profiles lay closer to the experts’ ideal also showed higher process quality. In addition, regression analyses showed that the child care workers’ levels of the Big Two (Communion and Agency) related significantly to their process quality.
In Western personnel psychology, competence- and control beliefs (CCB) are of widespread use to predict typical work-related outcomes such as well-being, achievement motivation and job performance. The predictive value and comprehension of CCB in East Africa is examined, comparing a Kenyan target with a German source sample (N=143). Responses to personality tests included qualitative interviews on items capturing control orientations (self concept of ability, internality, powerful others, and chance). Linear regression analyses,
explorative factor analyses, and a procrustean target rotation showed comparable, but not fully congruent predictability for the connection of CCB with outcome variables. Factor structures of control responses did not resemble each other sufficiently. Content analyses including scale intercorrelations, quantitative and qualitative item information served for an explanation of this predictability gap, specifying differences between the German and Kenyan samples that are associated with the social-relational domain of personality. Results
fit in the picture depicted by the African Ubuntu philosophy and the South African Personality Inventory project (SAPI), both emphasizing social-relational aspects. In particular, the powerful others control orientation diverges the most between the cultures. Being perceived as a negative and external factor in the German sample with its individualistic culture, powerful others is of mixed emotional quality and just as well internal, when asked for in the Kenyan sample with its Ubuntu-worldview. An uncritical transfer of CCB measures from one culture to another is assumed to be inappropriate. More emic-etic based research is demanded concerning intra- and intercultural variability of CCB to depict a
transcultural applicable model.
The history of human kind is characterized by social conflict. Every conflict can be the starting point of social change or the escalation into more destructive forms. The social conflict in regard to rising numbers of refugees and their acceptance that arose in most host countries in 2015 already took on destructive forms – in Germany, right-wing extremists attacked refugee shelters and even killed multiple people, including political leaders who openly supported refugees. Thus, incompatible expectancies and values of different parts of the society led to violent action tendencies, which tremendously threaten intergroup relations. Psychological research has developed several interventions in past decades to improve intergroup relations, but they fall short, for example, when it comes to the inclusion of people with extreme attitudes and to precisely differentiate potential prosocial outcomes of the interventions. Thus, this dissertation aimed to a) develop psychological interventions, that could also be applied to people with more extreme attitudes, thereby putting a special emphasis on collecting a diverse sample; b) gain knowledge about target- and outcome specific effects: Who benefits from which intervention and how can specific prosocial actions be predicted in order to develop interventions that guide needs-based actions; and c) shed light on potential underlying mechanisms of the interventions.
The dissertation will be introduced by the socio-political background that motivated the line of research pursued, before providing an overview of the conceptualization of social conflicts and potential psychological inhibitors and catalyzers for conflict transformation. Based on past research on socio-psychological interventions and their limitations, the aims of the dissertation will be presented in more detail, followed by a short summary of each manuscript. Overall, the present thesis comprises four manuscripts that were summarized in the general discussion into a road map for social-psychological interventions to put them into a broader perspective. The road map aspires to provide recommendations for increasing – either approach-oriented or support-oriented actions – by the socio-psychological interventions for a variety of host society groups depending on their pre-existing attitude towards refugees.
A Paradoxical Intervention targeting central beliefs of people with negative attitudes towards refugees influenced inhibitory and catalyzing factors for conflict transformation over the course of three experiments – thereby providing an effective tool to establish approach-oriented action tendencies, such as the willingness to get in contact with refugees. Further, the dissertation presents a novel mechanism – namely Cognitive Flexibility – which could explain the Paradoxical Interventions’ effect of past research. By positively affecting a context-free mindset, the Paradoxical Intervention could impact more flexible thought processes in general, irrespective of the topic tackled in the Paradoxical Intervention itself. For people with rather positive attitudes addressing emotions may increase specific support-oriented action tendencies. The dissertation provides evidence of a positive relation between moral outrage and hierarchy-challenging actions, such as solidarity-based collective action, and sympathy with prosocial hierarchy-maintaining support-oriented actions, such as dependency-oriented helping. These exclusive relations between specific emotions and action intentions provide important implications for the theorizing of emotion-behavior relations, as well as for practical considerations. In addition, a diversity workshop conducted with future diplomats showed indirect effects on solidarity-based collective action via diversity perception and superordinate group identification, thereby extending past research by including action intentions and going beyond the focus on grassroot-initiatives by presenting an implementable intervention for future leaders in a real world context.
Taken together, this dissertation provides important insights for the development of socio-psychological interventions. By integrating a diverse sample, including members of institutions on meso- and macro-levels (non-governmental organizations and future politicians) of our society, this dissertation presents a unique multi-perspective of host society members on the social conflict of refugee acceptance and support. Thereby, this work contributes to theoretical and practical advancement of how social psychology can contribute not only to negative peace – by for example (indirectly) reducing support of violence against refugees – but also to positive peace – by for example investigating precursors of hierarchy-challenging actions that enable equal rights.
Das Interesse am Konzept Crowdfunding ist in den letzten Jahren sowohl aus der Wirtschaft als auch aus der Wissenschaft gestiegen. Neben Künstlern und Entrepreneuren finanzieren nun auch Wissenschaftler ihre Projekte durch zahlreiche kleine Beiträge aus der Crowd. Allerdings spiegelt die wahrgenommene Nutzung in Deutschland nicht die Vorteile einer Crowdfunding-Kampagne wider, insbesondere nicht im internationalen Vergleich. Die vorliegende Studie untersucht diesen Umstand, indem sie die Motive und Barrieren für eine Finanzierung durch Crowdfunding identifiziert, um Empfehlungen für Forschungseinrichtungen zur Förderung von Crowdfunding zu formulieren. Durch eine Literaturanalyse werden erste Erkenntnisse ermittelt, welche dann für die Durchführung von qualitativen Interviews mit elf Wissenschaftlern, die bereits eine Crowdfunding-Kampagne erfolgreich abgeschlossen haben, verwendet werden. Die Ergebnisse zeigen, dass ForscherInnen in Deutschland Crowdfunding in erster Linie dazu verwenden, Aufmerksamkeit für das Thema und die wissenschaftliche Gemeinschaft im Allgemeinen zu schaffen. Die größten Barrieren sind der enorme Aufwand, der mit einer Kampagne verbunden ist, und die mangelnde Reputation des Konzepts des Crowdfunding seitens der deutschen Wissenschaft. Zudem eignen sich nur Themen und Projekte mit einer hohen Öffentlichkeitswirksamkeit und einem Fördervolumen von maximal fünfstelligen Beträgen. Darüber hinaus konnte die öffentliche Wahrnehmung der Experten während der Kampagne als zusätzliche Barriere identifiziert werden.
Diese Ergebnisse führen zu drei Empfehlungen für Forschungseinrichtungen zur Förderung von Crowdfunding: Es wird empfohlen das Bewusstsein für das Thema Crowdfunding als zusätzliche Form der Forschungsfinanzierung zu sensibilisieren und die Vorteile einer Crowdfunding-Kampagne hervorzuheben. Universitäten sollten mit Crowdfunding Akteuren (bspw. Plattformen und Experten) zusammenarbeiten und die Netzwerkeffekte einer Universität sollten genutzt werden. Die Universitäten sollten Unterstützung leisten, um die Arbeitsbelastung auf interdisziplinäre Teams zu verteilen, um so das Verhältnis zwischen Aufwand und Ertrag zu optimieren. Die gewählte Methodik und der Geltungsbereich der Thesis eröffnen weitere Forschungsmöglichkeiten, die die Perspektive der Universitäten und die Bedingungen in anderen Ländern untersuchen könnten. Darüber hinaus ist eine groß angelegte quantitative Studie erforderlich, um die identifizierten Konzepte statistisch zu validieren.
Social-Media Plattformen wie Twitter oder Reddit bieten Nutzern nahezu ohne Beschränkungen die Möglichkeit, ihre Meinungen über aktuelle Ereignisse zu veröffentlichen, diese mit anderen zu teilen und darüber zu diskutieren. Während die Mehrheit der Nutzer diese Plattformen nur als reines Diskussionsportal verwenden, gibt es jedoch Nutzergruppen, welche aktiv und gezielt versuchen, diese veröffentlichten Meinungen in ihrem Sinne zu beeinflussen bzw. zu manipulieren. Durch wiederholtes Verbreiten von bearbeiteten Fake-News oder stark polarisierenden Meinungen im gesamten politischen Spektrum können andere Nutzer beeinflusst, manipuliert und unter Umständen zum Träger von Hassreden und extremen politischen Positionen werden. Viele dieser Nutzergruppen sind vor allem in englischsprachigen Portalen anzutreffen, in denen sie sich überwiegend als Muttersprachler ausgeben. In dieser Arbeit stellen wir eine Methode vor, englische Muttersprachler und Nicht-Muttersprachler, die Englisch als Fremdsprache verwenden, anhand von ausgewählten englischen Social Media Texten zu unterscheiden. Dazu implementieren wir textmerkmalbasierte Modelle, welche für traditionelle Machine-Learning Prozesse und neuartigen AutoML-Pipelines zur Klassifizierung von Texten verwendet werden. Wir klassifizieren dabei Sprachfamilie, Muttersprache und Ursprung eines beliebigen englischen Textes. Die Modelle werden an einem bestehenden Datensatz von Reddit, welcher hauptsächlich aus englischen Texten von europäischen Nutzern besteht, und einem neu erstellten Twitter Datensatz, der Tweets von aktuellen Themen in verschiedenen Ländern enthält, angewandt. Wir evaluieren dabei vergleichsweise die erhaltenen Resultate unserer Pipeline zu traditionellen Maschinenlernprozessen zur Texterkennung anhand von Präzision, Genauigkeit und F1-Maßen der Vorhersagen. Wir vergleichen zudem die Ergebnisse auf Unterschiede der Sprachnutzung auf den unterschiedlichen Plattformen sowie den ausgewählten Themenbereichen. Dabei erzielen wir eine hohe Vorhersagewahrscheinlichkeit für alle gewählten Kategorien des erstellten Twitter Datensatzes und stellen unter anderem eine hohe Abweichung in Bezug auf die durchschnittliche Textlänge insbesondere bei Nutzern aus dem baltoslawischen Sprachraum fest.
Initial goal of the current dissertation was the determination of image-based biomarkers sensitive for neurodegenerative processes in the human brain. One such process is the demyelination of neural cells characteristic for Multiple sclerosis (MS) - the most common neurological disease in young adults for which there is no cure yet. Conventional MRI techniques are very effective in localizing areas of brain tissue damage and are thus a reliable tool for the initial MS diagnosis. However, a mismatch between the clinical fndings and the visualized areas of damage is observed, which renders the use of the standard MRI diffcult for the objective disease monitoring and therapy evaluation. To address this problem, a novel algorithm for the fast mapping of myelin water content using standard multiecho gradient echo acquisitions of the human brain is developed in the current work. The method extents a previously published approach for the simultaneous measurement of brain T1, T∗ 2 and total water content. Employing the multiexponential T∗ 2 decay signal of myelinated tissue, myelin water content is measured based on the quantifcation of two water pools (myelin water and rest) with different relaxation times. Whole brain in vivo myelin water content maps are acquired in 10 healthy controls and one subject with MS. The in vivo results obtained are consistent with previous reports. The acquired quantitative data have a high potential in the context of MS. However, the parameters estimated in a multiparametric acquisition are correlated and constitute therefore an ill-posed, nontrivial data analysis problem. Motivated by this specific problem, a new data clustering approach is developed called Nuclear Potential Clustering, NPC. It is suitable for the explorative analysis of arbitrary dimensional and possibly correlated data without a priori assumptions about its structure. The developed algorithm is based on a concept adapted from nuclear physics. To partition the data, the dynamic behavior of electrically even charged nucleons interacting in a d-dimensional feature space is modeled. An adaptive nuclear potential, comprised of a short-range attractive (Strong interaction) and a long-range repulsive term (Coulomb potential), is assigned to each data point. Thus, nucleons that are densely distributed in space fuse to build nuclei (clusters), whereas single point clusters are repelled (noise). The algorithm is optimized and tested in an extensive study with a series of synthetic datasets as well as the Iris data. The results show that it can robustly identify clusters even when complex configurations and noise are present. Finally, to address the initial goal, quantitative MRI data of 42 patients are analyzed employing NPC. A series of experiments with different sets of image-based features show a consistent grouping tendency: younger patients with low disease grade are recognized as cohesive clusters, while those of higher age and impairment are recognized as outliers. This allows for the definition of a reference region in a feature space associated with phenotypic data. Tracking of the individual's positions therein can disclose patients at risk and be employed for therapy evaluation.
Bäche gehören zu den gefährdetsten Ökosystemen, da sie diversen anthropogenen Stressoren ausgesetzt sind, wobei Pestizide für landwirtschaftliche Bäche am relevantesten erscheinen. Aufgrund der Diskrepanz zwischen modellierten und gemessenen Pestizid-konzentrationen ist Monitoring nötig um zukünftige Risikobewertungen und Zulassungen zu verbessern. Festzustellen ob biotische Stressreaktionen über große räumliche und zeitliche Skalen ähnlich sind, ist nötig um Schwellenwerte zum Schutz vor Stressoren abzuschätzen.
Diese Doktorarbeit beginnt mit einem Überblick über Pestizideintrittspfade in Bäche, sowie dem momentanen Stand des Pestizidmonitorings gefolgt von der Zielsetzung der Doktorarbeit. In Kapitel 2 werden Ergebnisse aus Schöpfproben von Routinemonitoring mehrerer Länder analysiert um die häufigsten Pestizidmischungen zu identifizieren. Diese Mischungen werden von wenigen Pestiziden gebildet, wobei Herbizide dominieren. Die nachgewiesenen Mischungen unterscheiden sich regional, da Nachweisgrenzen und Stoffumfang variieren. Aktuelles Routinemonitoring umfasst bisher keine Probenahmen während durch Starkregenereignisse hervorgerufene Pestizidspitzen, die wahrscheinlich Pestizidmischungen beeinflussen. In Kapitel 3 werden Sammelraten für 42 Pestizide bei der Benutzung von Passiv-sammlern vorgestellt und Empfehlungen zum Monitoring von feldrelevanten Pestizidspitzen gegeben. Damit konnte in Kapitel 4 ein Pestizidgradient in einer osteuropäischen Region aufgestellt werden in der die Landwirtschaftsintensität von niedrig bis hoch reicht. Dabei wurden Regenereignisse beprobt und eine Vielzahl von Pestiziden analysiert. Dies führte zu vielen gleichzeitig nachgewiesenen Pestiziden, von denen ein bis drei die Pestizidtoxizität bestimmten. Diese zeigte jedoch keinen Zusammenhang zur landwirtschaftlichen Intensität. Durch Mikrokosmenexperimente wurde in Kapitel 5 die Stressantwort von Pilzgemeinschaften, den Hyphomyceten, und deren assoziierter Ökosystemfunktion des Laubabbaus untersucht. Effekte einer feldrelevanten Fungizidmischung wurde über drei biogeographische Regionen sowie drei aufeinanderfolgende Zyklen von mikrobieller Laubkolonisation und -abbau untersucht. Trotz anfänglich unterschiedlichen Gemeinschaften waren Stressantworten sowie Erholungen in den untersuchten Regionen ähnlich, was auf ein generelles Muster hindeutet.
Insgesamt trägt diese Doktorarbeit zum verbesserten Verständnis von Vorkommen und Konzentrationen von Pestizidmischungen, deren Monitoring sowie ihren Auswirkungen auf eine Ökosystemfunktion bei. Wir konnten zeigen, dass die abgeschätzten Pestizidtoxizitäten potentiell Nichtzielorganismen und somit ganze Ökosystem beeinflussen. Routinemonitoring unterschätzt diese Gefahr bisher jedoch wahrscheinlich. Effekte, welche Verluste in Biodiversität sowie Funktionen hervorrufen, können verringert werden indem zugelassene Pestizide mit anhaltendem Monitoring neu bewertet werden und die Datenlage zu Pestizidwirkungen verbessert wird.
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Data-minimization and fairness are fundamental data protection requirements to avoid privacy threats and discrimination. Violations of data protection requirements often result from: First, conflicts between security, data-minimization and fairness requirements. Second, data protection requirements for the organizational and technical aspects of a system that are currently dealt with separately, giving rise to misconceptions and errors. Third, hidden data correlations that might lead to influence biases against protected characteristics of individuals such as ethnicity in decision-making software. For the effective assurance of data protection needs,
it is important to avoid sources of violations right from the design modeling phase. However, a model-based approach that addresses the issues above is missing.
To handle the issues above, this thesis introduces a model-based methodology called MoPrivFair (Model-based Privacy & Fairness). MoPrivFair comprises three sub-frameworks: First, a framework that extends the SecBPMN2 approach to allow detecting conflicts between security, data-minimization and fairness requirements. Second, a framework for enforcing an integrated data-protection management throughout the development process based on a business processes model (i.e., SecBPMN2 model) and a software architecture model (i.e., UMLsec model) annotated with data protection requirements while establishing traceability. Third, the UML extension UMLfair to support individual fairness analysis and reporting discriminatory behaviors. Each of the proposed frameworks is supported by automated tool support.
We validated the applicability and usability of our conflict detection technique based on a health care management case study, and an experimental user study, respectively. Based on an air traffic management case study, we reported on the applicability of our technique for enforcing an integrated data-protection management. We validated the applicability of our individual fairness analysis technique using three case studies featuring a school management system, a delivery management system and a loan management system. The results show a promising outlook on the applicability of our proposed frameworks in real-world settings.
Amphibian populations are declining worldwide for multiple reasons such as habitat destruction and climate change. An example for an endangered European amphibian is the yellow-bellied toad Bombina variegata. Populations have been declining for decades, particularly at the northern and western range margin. One of the extant northern range centres is the Westerwald region in Rhineland-Palatinate, Germany. To implement informed conservation activities on this threatened species, knowledge of its life-history strategy is crucial. This study therefore focused on different developmental stages to test predictions of life-history theory. It addressed (1) developmental, (2) demographic and (3) genetic issues of Bombina variegata as a model organism: (1) Carry-over effects from larval environment to terrestrial stages and associated vulnerability to predators were investigated using mesocosm approaches, fitness tests and predation trials. (2) The dynamics and demography of B. variegata populations were studied applying a capture-mark-recapture analysis and skeletochronology. The study was complemented through (3) an analysis of genetic diversity and structuring of B. variegata populations using 10 microsatellite loci. In order to reveal general patterns and characteristics among B. variegata populations, the study focused on three geographical scales: local (i.e. a former military training area), regional (i.e. the Westerwald region) and continental scale (i.e. the geographical range of B. variegata). The study revealed carry-over effects of larval environment on metamorph phenotype and behaviour causing variation in fitness in the early terrestrial stage of B. variegata. Metamorph size and condition are crucial factors for survival, as small-sized individuals were particularly prone to predator attacks. Yellow-bellied toads show a remarkable fast-slow continuum of the life-history trait longevity. A populations’ position within this continuum may be determined by local environmental stochasticity, i.e. an extrinsic source of variation, and the efficiency of chemical antipredator protection, i.e. an intrinsic source of variation. Extreme longevity seems to be an exception in B. variegata. Senescence was absent in this study. Weather variability affected reproductive success and thus population dynamics. The dispersal potential was low and short-term fragmentation of populations caused significant genetic differentiation at the local scale. Long-term isolation resulted in increased genetic distance at the regional scale. At the continental scale, populations inhabiting the marginal regions were deeply structured with reduced allelic richness. As consequence of environmental changes, short-lived and isolated B. variegata populations at the range margin may face an increased risk of extinction. Conservation measures should thus improve the connectivity among local populations and reinforce annual reproductive success. Further research on the intraspecific variation in B. variegata skin toxins is required to reveal potential effects on palatability and thus longevity.
Despite widespread plans of big companies like Amazon and Google to develop unmanned delivery drones, scholarly research in this field is scarce, especially in the information systems field. From technical and legal perspectives, drone delivery in last-mile scenarios is in a quite mature state. However, estimates of user acceptance are varying between high skepticism and exaggerated optimism. This research follows a mixed method approach consisting both qualitative and quantitative research, to identify and test determinants of consumer delivery drone service adoption. The qualitative part rests on ten interviews among average consumers, who use delivery services on a regular basis. Insights gained from the qualitative part were used to develop an online survey and to assess the influence of associated risks on adoption intentions. The quantitative results show that especially financial and physical risks impede drone delivery service adoption. Delivery companies who are currently thinking about providing a delivery drone service may find these results useful when evaluating usage behaviors in the future market for delivery drones.
Railway safety is a topic which gains the public attention only if major railway accidents happen. This is because railway is considered as a safe mode of travel by the public. However, to ensure the safety of the railway system railway companies as well as universities conduct a broad spectrum of research. An overview of this research has not yet been provided in the scholarly literature. Therefore, this thesis follows two objectives. First an overview and ranking of railway safety research universities should be provided. Second, based on these universities, it should be identified which are the most relevant and influential research topics. The ranking is based on the research method “literature review” which forms the methodical basis for this thesis. To evaluate the universities based on a measurable and objective criterion, the number of citations of the researchers from each university is gathered. As a result, the University of Leuven for the civil engineering, Milan Politechnico for mechanical enginering and the University of Loughborough for electrical engineering are identified as the leading university in their field of railway safety research. The top universities for each discipline are distributed all over Europe, North America and Asia. However, a clear focus on the US and British universities is observed. For identification of the most relevant and influential topics the keywords from the publications which are considered in the ranking procedure are analyzed. Focus areas among these keywords are revealed by calculating the count of each keyword. High-speed trains as well as maintenance are recognized as the highly relevant topics in both civil and mechanical engineering. Furthermore, the topic of railway dynamics for mechanical engineering and noise and vibration for civil engineering are identified as the leading topics in the respective discipline. Achieving both research goals required exploratory approaches. Therefore, this thesis leaves open space for future research to deepen the individual topics which are approached in each section. A validation of the results through experts interviews as well as a deepening of the analysis through increasing the number of analyzed universities as well as applying statistical methods is recommended.
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.
Der Industriestandard Decision Model and Notation (DMN) ermöglicht seit 2015 eine neue Art der Formalisierung von Geschäftsregeln. Hier werden Regeln in sogenannten Entscheidungstabellen modelliert, die durch Eingabespalten und Ausgabespalten definiert sind. Zudem sind Entscheidungen in graphartigen Strukturen angeordnet (DRD Ebene), die Abhängigkeiten unter diesen erzeugen. Nun können, mit gegebenen Input, Entscheidungen von geeigneten Systemen angefragt werden. Aktivierte Regeln produzieren dabei einen Output für die zukünftige Verwendung. Jedoch erzeugen Fehler während der Modellierung fehlerhafte Modelle, die sowohl in den Entscheidungstabellen als auch auf der DRD Ebene auftreten können. Nach der Design Science Research Methodology fokus\-siert diese Arbeit eine Implementierung eines Verifikationsprototyps für die Erkennung und Lösung dieser Fehler während der Modellierungsphase. Die vorgestellten Grundlagen liefern die notwendigen theoretischen Grundlagen für die Entwicklung des Tools. Diese Arbeit stellt außerdem die Architektur des Werkzeugs und die implementierten Verifikationsfähigkeiten vor. Abschließend wird der erstellte Prototyp evaluiert.
Dadurch, dass Silber-Nanopartikel (Ag NPs) vielfältig in Konsumartikeln eingesetzt werden, führt deren Auswaschung zu einer kontinuierlichen Freisetzung von Ag NPs in natürliche Gewässer. Dadurch werden bakterielle Biofilme, welche die vorherrschende Lebensform von Mikroorganismen in der aquatischen Umwelt darstellen, sehr wahrscheinlich mit diesen in Form eines Umweltschadstoffes onfrontiert. Ungeachtet der bedeutsamen ökologischen Relevanz von bakteriellen Biofilmen in aquatischen Systemen und obwohl erwartet wird, dass Ag NPs in diesen Biofilmen in der Umwelt akkumulieren, liegt der Wissensstand hinsichtlich der umweltbedingten und ökologischen Auswirkung von Ag NPs hinter dem industriellen Wachstum der Nanotechnologie zurück. Demzufolge ist das Ziel dieser Dissertation, die Wirkungsbeziehung der Ag NP-Exposition gegenüber bakteriellen Biofilmen mit Ag NP-Immissionskonzentrationen und unter umwelt-relevanten Bedingungen zu erbringen. Infolgedessen wurden eine umfassende Reihe an Methoden angewendet, um zu untersuchen ob und inwiefern Ag NPs in zwei verschiedenen Größen (30 und 70 nm) und in umweltrelevanten Konzentrationen (600 - 2400 µg l-1) bakterielle Biofilme, d.h. monospecies- und Süßwasser-Biofilme, beeinträchtigen. Innerhalb des ersten Teils dieser Arbeit wurde ein neu entwickelter Assay validiert, um die mechanische Stabilität von monospecies Biofilmen des Bakteriums Aquabacterium citratiphilum zu untersuchen. In der ersten Studie, welche den Einfluss von Ag NPs auf die mechanische Stabilität von bakteriellen Biofilmen untersucht hat, wurden subletale Auswirkungen auf die mechanische Stabilität dieser Biofilme mit negativen Implikationen für die Biostabilisation festgestellt. Weiterhin wurde eine Mesokosmus-Studie konzipiert und durchgeführt, innerhalb der die Auswirkungen von Ag NPs auf Süßwasser-Biofilme eingehend unter realistischen Umweltbedingungen untersucht werden konnte, da es derzeit technisch noch sehr anspruchsvoll ist, die Ökotoxizität von Ag NPs in der Umwelt von Binnengewässern zu untersuchen. Innerhalb dieser Studie wurden verschiedene Methoden zur Untersuchung der Biofilmeigenschaften eingesetzt und damit Erkenntnisse über die Resilienz von bakteriellen Süßwasser-Biofilmen gewonnen. Demgegenüber konnte mittels t-RFLP fingerprinting und phylogenetischen Untersuchungen basierend auf der Sequenzanalyse des 16S-rRNA-Gens nachgewiesen werden, dass die Exposition der Biofilme mit Ag NPs zu einer Verschiebung innerhalb der Zusammensetzung der bakteriellen Biofilmgemeinschaft führt, in der Ag NP-sensitive Arten von Ag NP-toleranten Arten, die besser an Ag NP Stress adaptiert sind, verdrängt wurden. Diese Verschiebung innerhalb der bakteriellen Biofilmgemeinschaft könnte die Biofilm-Leistungen beeinträchtigen, die intakte Biofilme auszeichnen, wie etwa den Abbau erhöhten Nährstoffeintrags, die Umwandlung und/oder den Abbau von Schadstoffen sowie Biostabilisation. Durch das Zusammenführen der wichtigsten Erkenntnisse dieser Dissertation konnten 4 generelle Wirkmechanismen durch die Ag NP-Behandlung identifiziert werden, die auf natürliche Süßwassersysteme übertragbar sein könnten: (i) Comamonadaceae wurden als Ag NP-tolerant identifiziert, (ii) Biofilme zeigen ein partiell resilientes Verhalten, (iii) die beiden eingesetzten verschiedenen Ag NP-Größen führten zu vergleichbaren Ergebnissen unabhängig von deren Größe oder Synthesemethode, (iv) Bakterielle Biofilme verfügen über eine hohe Aufnahmekapazität für Ag NPs, die auf eine kumulative Anreicherung hinweist.
Bio-medical data comes in various shapes and with different representations.
Domain experts use such data for analysis or diagnosis,
during research or clinical applications. As the opportunities to obtain
or to simulate bio-medical data become more complex and productive,
the experts face the problem of data overflow. Providing a
reduced, uncluttered representation of data, that maintains the data’s
features of interest falls into the area of Data Abstraction. Via abstraction,
undesired features are filtered out to give space - concerning the
cognitive and visual load of the viewer - to more interesting features,
which are therefore accentuated. To address this challenge, the dissertation
at hand will investigate methods that deal with Data Abstraction
in the fields of liver vasculature, molecular and cardiac visualization.
Advanced visualization techniques will be applied for this purpose.
This usually requires some pre-processing of the data, which will also
be covered by this work. Data Abstraction itself can be implemented
in various ways. The morphology of a surface may be maintained,
while abstracting its visual cues. Alternatively, the morphology may
be changed to a more comprehensive and tangible representation.
Further, spatial or temporal dimensions of a complex data set may
be projected to a lower space in order to facilitate processing of the
data. This thesis will tackle these challenges and therefore provide an
overview of Data Abstraction in the bio-medical field, and associated
challenges, opportunities and solutions.
On-screen interactive presentations have got immense popularity in the domain of attentive interfaces recently. These attentive screens adapt their behavior according to the user's visual attention. This thesis aims to introduce an application that would enable these attentive interfaces to change their behavior not just according to the gaze data but also facial features and expressions. The modern era requires new ways of communications and publications for advertisement. These ads need to be more specific according to people's interests, age, and gender. When advertising, it's important to get a reaction from the user but not every user is interested in providing feedback. In such a context more, advance techniques are required that would collect user's feedback effortlessly. The main problem this thesis intends to resolve is, to apply advanced techniques of gaze and face recognition to collect data about user's reactions towards different ads being played on interactive screens. We aim to create an application that enables attentive screens to detect a person's facial features, expressions, and eye gaze. With eye gaze data we can determine the interests and with facial features, age and gender can be specified. All this information will help in optimizing the advertisements.
Molecular dynamics (MD) as a field of molecular modelling has great potential to revolutionize our knowledge and understanding of complex macromolecular structures. Its field of application is huge, reaching from computational chemistry and biology over material sciences to computer-aided drug design. This thesis on one hand provides insights into the underlying physical concepts of molecular dynamics simulations and how they are applied in the MD algorithm, and also briefly illustrates different approaches, as for instance the molecular mechanics and molecular quantum mechanics approaches.
On the other hand an own all-atom MD algorithm is implemented utilizing and simplifying a version of the molecular mechanics based AMBER force field published by \big[\cite{cornell1995second}\big]. This simulation algorithm is then used to show by the example of oxytocin how individual energy terms of a force field function. As a result it has been observed, that applying the bond stretch forces alone caused the molecule to be compacted first in certain regions and then as a whole, and that with adding more energy terms the molecule got to move with increasing flexibility.
Blockchain in Healthcare
(2020)
The underlying characteristics of blockchain can facilitate data provenance, data integrity, data security, and data management. It has the potential to transform the healthcare sector. Since the introduction of Bitcoin in the fintech industry, the blcockhain technology has been gaining a lot of traction and its purpose is not just limited to finance. This thesis highlights the inner workings of blockchain technology and its application areas with possible existing solutions. Blockchain could lay the path for a new revolution in conventional healthcare systems. We presented how individual sectors within the healthcare industry could use blockchain and what solution persists. Also, we have presented our own concept to improve the existing paper-based prescription management system which is based on Hyperledger framework. The results of this work suggest that healthcare can benefit from blockchain technology bringing in the new ways patients can be treated.
The European landscape is dominated by intensive agriculture which leads to widespread impact on the environment. The frequent use of agricultural pesticides is one of the major causes of an ongoing decline in flower-visiting insects (FVIs). The conservation of this ecologically diverse assemblage of mobile, flying insect species is required by international and European policy. To counteract the decrease in species numbers and their abundances, FVIs need to be protected from anthropogenic stressors. European pesticide risk assessment was devised to prevent unacceptable adverse consequences of pesticide use on FVIs. However, there is an ongoing discussion by scientists and policy-makers if the current risk assessment actually provides adequate protection for FVI species.
The first main objective of this thesis was to investigate pesticide impact on FVI species. The scientific literature was reviewed to identify groups of FVIs, summarize their ecology, and determine their habitat. This was followed by a synthesis of studies about the exposure of FVIs in their habitat and subsequent effects. In addition, the acute sensitivity of one FVI group, bee species, to pesticides was studied in laboratory experiments.
The second main objective was to evaluate the European risk assessment for possible deficits and propose improvements to the current framework. Regulatory documents were screened to assess the adequacy of the guidance in place in light of the scientific evidence. The suitability of the honey bee Apis mellifera as the currently only regulatory surrogate species for FVIs was discussed in detail.
The available scientific data show that there are far more groups of FVIs than the usually mentioned bees and butterflies. FVIs include many groups of ecologically different species that live in the entire agricultural landscape. Their habitats in crops and adjacent semi-natural areas can be contaminated by pesticides through multiple pathways. Environmentally realistic exposure of these habitats can lead to severe effects on FVI population parameters. The laboratory studies of acute sensitivity in bee species showed that pesticide effects on FVIs can vary greatly between species and pesticides.
The follow-up critical evaluation of the European FVI risk assessment revealed major shortcomings in exposure and effect assessment. The honey bee proved to be a sufficient surrogate for bee species in lower tier risk assessment. Additional test species may be chosen for higher tier risk assessment to account for ecological differences. This thesis shows that the ecology of FVIs should generally be considered to a greater extent to improve the regulatory process. Data-driven computational approaches could be used as alternative methods to incorporate ecological trait data in spatio-temporal scenarios. Many open questions need to be answered by further research to better understand FVI species and promote necessary changes to risk assessment. In general, other FVI groups than bees need to be investigated. Furthermore, comprehensive data on FVI groups and their ecology need to be collected. Contamination of FVI habitat needs to be linked to exposure of FVI individuals and ecologically complex effects on FVI populations should receive increased attention. In the long term, European FVI risk assessment would benefit from shifting its general principles towards more scientifically informed regulatory decisions. This would require a paradigm shift from arbitrary assumptions and unnecessarily complicated schemes to a substantiated holistic framework.
Since the invention of U-net architecture in 2015, convolutional networks based on its encoder-decoder approach significantly improved results in image analysis challenges. It has been proven that such architectures can also be successfully applied in different domains by winning numerous championships in recent years. Also, the transfer learning technique created an opportunity to push state-of-the-art benchmarks to a higher level. Using this approach is beneficial for the medical domain, as collecting datasets is generally a difficult and expensive process.
In this thesis, we address the task of semantic segmentation with Deep Learning and make three main contributions and release experimental results that have practical value for medical imaging.
First, we evaluate the performance of four neural network architectures on the dataset of the cervical spine MRI scans. Second, we use transfer learning from models trained on the Imagenet dataset and compare it to randomly initialized networks. Third, we evaluate models trained on the bias field corrected and raw MRI data. All code to reproduce results is publicly available online.
Environmental processes transforming inorganic nanoparticles: implications on aquatic invertebrates
(2020)
Engineered inorganic nanoparticles (EINPs) are produced and utilized on a large scale and will end up in surface waters. Once in surface waters, EINPs are subjected to transformations induced by environmental processes altering the particles’ fate and inherent toxicity. UV irradiation of photoactive EINPs is defined as one effect-inducing pathway, leading to the formation of reactive oxygen species (ROS), increasing EINP toxicity by exerting oxidative stress in aquatic life. Simultaneously, UV irradiation of photoactive EINP alters the toxicity of co-occurring micropollutants (e.g. pesticides) by affecting their degradation. The presence of natural organic matter (NOM) reduces the agglomeration and sedimentation of EINPs, extending the exposure of pelagic species, while delaying the exposure of benthic species living in and on the sediment, which is suggested as final sink for EINPs. However, the joint impact of NOM and UV irradiation on EINP-induced toxicity, but also EINP-induced degradation of micropollutants, and the resulting risk for aquatic biota, is poorly understood. Although potential effects of EINPs on benthic species are increasingly investigated, the importance of exposure pathways (waterborne or dietary) is unclear, along with the reciprocal pathway of EINPs, i.e. the transport back from aquatic to terrestrial ecosystems. Therefore, this thesis investigates: (i) how the presence of NOM affects the UV-induced toxicity of the model EINP titanium dioxide (nTiO2) on the pelagic organism Daphnia magna, (ii) to which extent UV irradiation of nTiO2 in the presence and absence of NOM modifies the toxicity of six selected pesticides in D. magna, (iii) potential exposure pathway dependent effects of nTiO2 and silver (nAg) EINPs on the benthic organism Gammarus fossarum, and (iv) the transport of nTiO2 and gold EINPs (nAu) via the merolimnic aquatic insect Chaetopteryx villosa back to terrestrial ecosystems. nTiO2 toxicity in D. magna increased up to 280-fold in the presence of UV light, and was mitigated by NOM up to 12-fold. Depending on the pesticide, UV irradiation of nTiO2 reduced but also enhanced pesticide toxicity, by (i) more efficient pesticide degradation, and presumably (ii) formation of toxic by-products, respectively. Likewise, NOM reduced and increased pesticide toxicity, induced by (i) protection of D. magna against locally acting ROS, and (ii) mitigation of pesticide degradation, respectively. Gammarus’ energy assimilation was significantly affected by both EINPs, however, with distinct variation in direction and pathway dependence between nTiO2 and nAg. EINP presence delayed C. villosa emergence by up to 30 days, and revealed up to 40% reduced lipid reserves, while the organisms carried substantial amounts of nAu (~1.5 ng/mg), and nTiO2 (up to 2.7 ng/mg). This thesis shows, that moving test conditions of EINPs towards a more field-relevant approach, meaningfully modifies the risk of EINPs for aquatic organisms. Thereby, more efforts need to be made to understand the relative importance of EINP exposure pathways, especially since a transferability between different types of EINPs may not be given. When considering typically applied risk assessment factors, adverse effects on aquatic systems might already be expected at currently predicted environmental EINP concentrations in the low ng-µg/L range.
The distributed setting of RDF stores in the cloud poses many challenges. One such challenge is how the data placement on the compute nodes can be optimized to improve the query performance. To address this challenge, several evaluations in the literature have investigated the effects of existing data placement strategies on the query performance. A common drawback in theses evaluations is that it is unclear whether the observed behaviors were caused by the data placement strategies (if different RDF stores were evaluated as a whole) or reflect the behavior in distributed RDF stores (if cloud processing frameworks like Hadoop MapReduce are used for the evaluation). To overcome these limitations, this thesis develops a novel benchmarking methodology for data placement strategies that uses a data-placement-strategy-independent distributed RDF store to analyze the effect of the data placement strategies on query performance.
With this evaluation methodology the frequently used data placement strategies have been evaluated. This evaluation challenged the commonly held belief that data placement strategies that emphasize local computation, such as minimal edge-cut cover, lead to faster query executions. The results indicate that queries with a high workload may be executed faster on hash-based data placement strategies than on, e.g., minimal edge-cut covers. The analysis of the additional measurements indicates that vertical parallelization (i.e., a well-distributed workload) may be more important than horizontal containment (i.e., minimal data transport) for efficient query processing.
Moreover, to find a data placement strategy with a high vertical parallelization, the thesis tests the hypothesis that collocating small connected triple sets on the same compute node while balancing the amount of triples stored on the different compute nodes leads to a high vertical parallelization. Specifically, the thesis proposes two such data placement strategies. The first strategy called overpartitioned minimal edge-cut cover was found in the literature and the second strategy is the newly developed molecule hash cover. The evaluation revealed a balanced query workload and a high horizontal containment, which lead to a high vertical parallelization. As a result these strategies showed a better query performance than the frequently used data placement strategies.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Konstituenten-Parsing versucht, syntaktische Struktur aus einem Satz zu extrahieren. Diese Parsing-Systeme sind in vielen maschinellen Sprachverarbeitungsanwendungen hilfreich, wie z.B. bei der Grammatikprüfung, der Beantwortung von Fragen und der Informationsextraktion. In dieser Masterarbeit geht es um die Implementierung eines Konstituentenparsers für die deutsche Sprache mit Hilfe von neuronalen Netzen. In der Vergangenheit wurden wiederkehrende neuronale Netze beim Aufbau eines Parsers und auch bei vielen maschinellen Sprachverarbeitungsanwendungen verwendet. Dabei werden Module des neuronalen Netzes mit Selbstaufmerksamkeit intensivgenutzt, um Sätze effektiv zu verstehen. Bei mehrschichtigen Selbstaufmerksamkeitsnetzwerken erreicht das konstituierende
Parsen 93,68% F1-Scoret. Dies wird noch weiter verbessert, indem sowohl Zeichen- als auch Worteinbettungen als Darstellung des Inputs verwendet werden. Ein F1-Score von 94,10% wurde am besten durch den Konstituenten-Parser erreicht, der nur den bereitgestellten Datensatz verwendet. Mit Hilfe externer Datensätze wie der deutschen Wikipedia werden vortrainierte ELMo-Modelle zusammen mit Selbstbeobachtungsnetzwerken verwendet, die einen F1-Score von 95,87% erreichen.
Gel effect induced by mucilage in the pore space and consequences on soil physical properties
(2020)
Wasseraufnahme, Atmung und Exsudation sind biologische Schlüsselfunktionen der Wurzeln höherer Pflanzen. Sie steuern das Pflanzenwachstum, indem sie die biogeochemischen Parameter des Bodens in unmittelbarer Nähe der Wurzeln, der Rhizosphäre, verändern. Folglich sind Bodenprozesse wie beispielsweise Wasserflüsse, Kohlen- und Stickstoffaustausch oder mikrobielle Aktivitäten in der Rhizosphäre im Vergleich zu freiem Boden begünstigt. Insbesondere die Exsudation von Mucilage durch die Pflanzenwurzeln scheint ein wichtiger Mechanismus zu sein, um Trockenstress vorzubeugen. Durch diese gelartige Substanz wird bei negativen Wasserpotentialen sowohl der Bodenwassergehalt als auch die ungesättigte hydraulische Leitfähigkeit erhöht. Die Veränderung der Bodeneigenschaften durch Mucilage ist Gegenstand aktueller Forschung. Ein umfassendes Verständnis der Mechanismen im Porenraum der Rhizosphäre ist bisher allerdings noch unzureichend.
Ziel dieser Arbeit war die Aufklärung der Gel-Eigenschaften von Mucilage im Porenraum der Rhizosphäre, um Veränderungen der physiko-chemischen Eigenschaften der Rhizosphäre auf dieses interpartikuläre Mucilage zurückzuführen. Dabei stellten sich drei Herausforderungen: Zunächst einmal mangelte es an Methoden zur in situ Detektion von Mucilage im Boden. Außerdem fehlten detaillierte Kenntnisse bezüglich der Eigenschaften von interpartikulärem Mucilage. Desweiteren war die Beziehung zwischen der Zusammensetzung und den Eigenschaften von Modelsubstanzen und wurzelstämmigem Mucilage verschiedener Spezies unbekannt. Diese Fragen werden in den verschiedenen Kapiteln der Arbeit thematisiert.
Zunächst erfolgte eine Literaturrecherche, um Informationen aus verschiedenen Wissenschaftsbereichen über Methoden zur Charakterisierung von Gelen und Gel-Phasen im Boden zusammenzustellen. Die Änderung von Bodeneigenschaften aufgrund vorhandener Biohydrogelphasen im Boden kann als „Gel-Effekt“ bezeichnet werden. Die kombinierte Studie von Wassereinschlüssen in Gelen und Boden-Gel-Phasen mit der Untersuchung struktureller Eigenschaften von Boden hinsichtlich der mechanischen Stabilität und visueller Strukturen, zeigte sich als vielversprechend, um den Gel-Effekt im Boden zu charakterisieren.
Das erworbene methodische Wissen wurde in den nächsten Untersuchungen angewendet, um die Eigenschaften von interpartikulären Gelen zu detektieren und zu charakterisieren. 1H NMR Relaxometrie erlaubt die nicht-invasive Bestimmung der Wassermobilität in porösen Medien. Ein konzeptuelles Modell wurde aus Gleichungen entwickelt, welche die Proton-Relaxation in gelhaltigen porösen Medien beschreiben. Dieses Modell berücksichtigt den beschriebenen Gel-Effekt bei der Wahl der NMR Parameter und quantifiziert den Einfluss von Mucilage auf die Proton-Relaxation. Darüber hinaus wurde mithilfe von Rheometrie die Viskosität von Mucilage sowie die mikrostrukturelle Bodenstabilität bestimmt. Mittels Rasterelektronenmikroskopie wurde die Netzwerkstruktur von interpartikulärem Gel visualisiert. Die kombinierte Auswertung dieser Ergebnisse identifizierte drei wichtige Eigenschaften von interpartikulärem Gel: Der „Spinnennetz-Effekt“ schränkt die Dehnung der Polymerketten aufgrund der Verbindung zwischen dem Polymer Netzwerk und der Oberfläche von Bodenpartikeln ein. Der „Polymer-Netzwerk-Effekt“ veranschaulicht die Anordnung des Polymernetzwerks im Porenraum gemäß der räumliche Umgebung. Der „Mikroviskositäts-Effekt“ beschreibt die erhöhte Viskosität von interpartikulärem Gel im Vergleich zu freiem Gel. Die Auswirkungen dieser Eigenschaften auf die Wassermobilität und auf die mikrostrukturelle Stabilität des Bodens wurden untersucht und daraus resultierende Konsequenzen für hydraulische und mechanische Eigenschaften des Bodens diskutiert.
Der Einfluss von den chemischen Eigenschaften von Polymeren auf Gel-Bildungsmechanismen und Gel-Eigenschaften wurde untersucht. Dafür wurden Modelsubstanzen mit verschiedenen Uronsäure-Gehalt, Veresterungsgrade und Calcium-Gehalt getestet und die Menge an Materialanteil mit hohem Molekulargewicht quantifiziert. Die untersuchten Modelsubstanzen waren verschiedenen Pektin Polymeren und Chia Samen Mucilage. Darüber hinaus wurde Mucilage aus Winterweizen und Mais Wurzeln isoliert und untersucht. Polygalakturonsäure und Niedermethyliertes Pektin erwiesen sich als nicht geeignete Modelpolymere für Samen und Wurzelmucilage, da ionische Wechselwirkungen mit Calcium ihre Eigenschaften dominieren. Die dem Mucilage zuzurechnenden Eigenschaften scheinen eher durch schwache elektrostatische Wechselwirkungen zwischen verstrickten Polymerketten beherrscht zu sein. Die Menge an Material mit hohem Molekulargewicht variiert deutlich, abhängig von dem Ursprung des Mucilages. Dies scheint ein bedeutender Faktor für den Gel-Effekt von Mucilage im Boden zu sein. Zusätzlich zu der chemischen Charakterisierung der hochmolekulargewichtigen Polymere ist die exakte Bestimmung der Molekularmassen und der Konformation in verschiedenen Mucilagesorten notwendig, um Zusammensetzungs-Eigenschafts-Profile aufzeichnen zu können. Die Abweichungen zwischen den verschiedenen Mucilagestypen, welche sich durch die Messungen ergeben, haben die Notwendigkeit weiterer Untersuchungen unterstrichen. Nur so lässt sich die Frage klären, wie die spezifischen Eigenschaften von verschiedenen Mucilagestypen auf die Bedürfnisse der Pflanze abgestimmt sind, der sie entstammen.
Schließlich wurde diskutiert, wie die Betrachtung von molekularen Wechselwirkungen im Gel und interpartikulären Gel-Eigenschaften das Verständnis über die physikalischen Eigenschaften der Rhizosphäre erweitert. Dieser Ansatz ist vielversprechend, um zum Beispiel der Wassergehalt oder die hydraulische Leitfähigkeit entsprechend die Eigenschaften vom exudierten Mucilage zu klären. Darüber hinaus liegt die Vermutung nahe, dass der Gel-Effekt allgemein für alle Bodenexsudate mit Gel-Charakter Gültigkeit besitzt. Eine Klassifizierung natürlicher Boden-Gel-Phasen einschließlich der von Wurzeln, Samen, Bakterien, Hyphen oder Regenwürmern exsudierten, gelartigen Materialien nach ihren gemeinsamen physiko-chemischen Gel-Eigenschaften wird für die zukünftige Forschung empfohlen. Als Ergebnis könnten die physiko-chemische Eigenschaften von solchen Gelen zum Gel-Effekt den Auswirkungen auf die Bodeneigenschaften und den Funktionen von den Gelen im Boden zugeschrieben worden.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.