Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (273)
- Diplomarbeit (196)
- Masterarbeit (187)
- Studienarbeit (137)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1136)
- Englisch (544)
- Mehrsprachig (4)
- Spanisch (2)
Volltext vorhanden
- ja (1686) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (145)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
The role of alternative resources for pollinators and aphid predators in agricultural landscapes
(2021)
Der Verlust zahlreicher Insekten wird weitgehend in Verbindung gebracht mit dem Verlust von natürlichem und halbnatürlichem Lebensraum durch intensivierte Landnutzung. Viele Insekten liefern wichtige Ökosystemleistungen an die Landwirtschaft wie z.B. Bestäubung und Schädlingsbekämpfung. Um diese Insekten effizient auf den verbleibenden halbnatürlichen Flächen zu fördern, ist genaues Wissen über ihre Ansprüche an das Umland von Agrarflächen erforderlich. Der Fokus dieser Dissertation liegt auf der Suche nach den wichtigsten halbnatürlichen Habitattypen (Waldrand, Wiesen und halb-offene Habitate) zur Förderung von Nützlingen und Bestäubern aufgrund der Bedeutung von Nahrungsressourcen, welche sie dort nutzen. Besonderes Augenmerk liegt dabei auf Blütenressourcen und wie diese räumlich und zeitlich im Kulturland verteilt sind. Darauf basierte Ressourcenkarten versprechen eine Charakterisierung der Landschaft, welche der Relevanz für Insekten näher kommt als klassische Habitatkarten. In dieser These wurde deshalb verglichen, ob sich das Vorkommen von Wildbienen, sowie Nektar und Pollen konsumierenden Nützlingen besser mit klassischen Habitatkarten, oder mit Ressourcenkarten vorhersagen lässt und identifizierte Habitate besonderer Wichtigkeit. Bei Wildbienen wurde untersucht, inwiefern sich Präferenzen verschiedener Gruppen von Wildbienen unterscheiden und ob es zeitliche und räumliche Zusammensetzungen von Blühressourcen gibt, die besonders optimal sind. Da sich Nützlinge nebst der Nutzung von Blüten vor allem räuberisch ernähren, wurde des Weiteren deren Beutespektrum untersucht. Dazu wurde der Darminhalt von Marienkäfern mit genetischen Methoden mittels High Throughput Sequencing auf konsumierte Blattläuse analysiert.
Blütenbasierte Ressourcenkarten sagten Bienen besser voraus als klassische Habitatkarten. Der Waldrand war dabei von besonderer Bedeutung. Sowohl Flächenanteil als auch Blühangebot hatten positive Einflüsse auf Abundanz und Artenreichtum von wichtigen Kulturbestäubern und seltenen Arten. Ähnliche Muster zeigten sich für Wiesendiversität. Dabei schien besonders das frühe Blühangebot einen positiven Einfluss auf Wildbienen zu haben. Kulturen und Obstbäume verursachten im April einen Blütenpuls, der das Blühangebot vom Mai und Juni um mehr als das Zehnfache überstieg. Waldränder boten besonders Anfang Mai und im Juni ein Blühangebot, das im Verhältnis zur Fläche die weitaus höchste Dichte aufwies. Das Blühangebot von Wiesen war äusserst gering, zeigte aber die höchste Diversität, welche regelmässig über die Saison verteilt war.
Obwohl die untersuchten Nützlinge Blüten fürs Überleben benötigen, waren blütenbasierte Habitatkarten weniger geeignet, um die Nützlingsabundanz zu erklären, als herkömmliche Habitatkarten. Diese zeigten, dass Waldränder von besonderer Bedeutung für Nützlinge sind. Die Anzahl der Nützlinge wiederum führte zur Unterdrückung von Blattläusen. Die Resultate der Darmuntersuchungen zeigten zum einen, dass Marienkäfer einen relativ hohen Anteil an schädlichen Blattlausarten und Brennesselblattläusen konsumieren, zum anderen zeigen sie, dass mit Klebfallen gefangene Marienkäfer einen wesentlich breiteren Einblick in das Beutespektrum erlauben, als von Hand gesammelt. Der zu diesem Zweck entwickelte Blattlausprimer wird für kommende Studien bei der Identifizierung der Blattlausbeute von Marienkäfern hilfreich sein.
Unsere Resultate zeigen, dass Blütenkarten einen wichtigen Mehrwert für die Vorhersage von Wildbienen haben, nicht aber von Nützlingen, da für diese wohl andere Habitatfaktoren zusätzlich limitierend wirken. Der positive Einfluss von Waldrändern für unterschiedliche Gruppen von Wildbienen wie auch für Nützlinge und ihre Leistung als Schädlingsbekämpfer ist besonders hervorzuheben.
Point Rendering
(2021)
In dieser Arbeit werden Verfahren zum Rendern von Punktdaten vorgestellt und miteinander verglichen. Die Verfahren lassen sich in zwei Kategorien unterteilen. Zum einen werden visuelle Verfahren behandelt, welche sich mit der reinen Darstellung von Punktprimitiven befassen. Hauptproblem ist dabei die Darstellung von Oberflächen, da Punktdaten im Gegensatz zu traditionellen Dreiecksnetzen keine Nachbarschaftsinformationen beinhalten. Zum anderen werden beschleunigende Datenstrukturen dargelegt, welche die echtzeitfähige Darstellung von großen Punktwolken ermöglichen. Punktwolken weisen häufig eine hohe Datenmenge auf, da diese meist durch 3D-Scanningverfahren wie z.B. Laserscanning und Photogrammetrie generiert werden.
In dieser wiederkehrenden Zeitschriftenreihe wollen wir die Arbeit junger Wissenschaftlerinnen und Wissenschaftler an der Universität Koblenz-Landau kommunizieren und Studierenden Austausch- und Publikationsmöglichkeiten für den wissenschaftlichen Werdegang eröffnen.
In dieser Ausgabe:
Pfefferkorn, Luca. Auswirkungen von Lückenskripten auf das Arbeiten und Lernen in mathematischen Vorlesungen der Studieneingangsphase.
Steffen, Theresa. Der Einfluss von Musik auf die kognitive Leistungsfähigkeit von Schülerinnen.
Kuhlmann, Fiene. Die Geschlechterpolitik der Alternative für Deutschland (AfD): Eine diskursanalytische Betrachtung zu den Verschränkungen von Anti-Gender und der Ethnisierung von Sexismus.
Dany, Matthias. „Findet Nemo!“: Eine multimodale Kommunikationsanalyse digitaler Protestkultur von Fridays-For-Future.
Reifenhäuser, Mona. Sprachwissenschaftliche Analyse von Auswandererbriefen des 19. Jahrhunderts im Spannungsfeld zwischen Nähe und Distanz.
Schmitt, Katharina. Die Emigration aus dem Hunsrück nach Brasilien – eine postkoloniale Analyse der von Nachfahr*innen Ausgewanderter verfassten Familienbiografien.
Bednarz, Julia. Artenkenntnis – vom Aussterben bedroht? Eine empirische Untersuchung der Artenkenntnis volljähriger Personen in Deutschland, Österreich und der Schweiz am Beispiel einheimischer Vogelarten.
Schöller, Kathrin. Mord mit Opferbeseitigung: Eine quantitative Analyse der Insektenbesiedlung bei unterschiedlichen Leichenverbergungsstrategien.
Heimann, Florian.Parameter Estimation of Physico-Biological Muscle Models: Comparing Günthers Biomechanical Four-Element Model to Macroscopic Hill-Equations.
Mikliss, Annika C.. Registrierung von 3D-Modellen auf Basis von Röntgenaufnahmen zur Darstellung von Hüftgelenksdysplasie bei Hunden.
Nagel, Sabine. Analysis of Task Management Functionalities and their Implementation and Use in Enterprise Collaboration Systems.
Hansen, Christian. Declarative Process Mining: a Method for the Discovery of Collaboration Scenarios in Enterprise Collaboration Systems.
Blatt, Jonas. Entwicklung eines Prototypen für die Verifikation von Decision Model and Notation.
Lienen, Dominik. Orchestrierung von Daten und Services einer KI im Unternehmenskontext.
Modellbildung zum Abbindeverhalten von PCE-verflüssigten und CA-Zement-gebundenen Feuerbetonen
(2021)
Feuerbetone werden als Auskleidung in industriellen Hochtemperaturaggregaten, wie beispielsweise in der Eisen- und Stahlindustrie, eingesetzt. Nach dem Mischen und dem Gießen eines Feuerbetons in Formen bzw. Schalungen, muss dieser abbinden und eine ausreichende Festigkeit ausbilden. Die Kinetik der Abbindevorgänge und somit auch das Erhärtungsverhalten variiert dabei stark in Abhängigkeit der Zusammensetzung, vor allem hinsichtlich des Bindemittels und der Additive, des Feuerbetons. In der Praxis der Herstellung von Feuerbetonen kommt es häufig zu Beschädigungen der hergestellten Bauteile oder Auskleidungen durch das Fließen noch nicht ausreichend abgebundener Feuerbetone bzw. die Beschädigung von Ecken und Kanten während des Ausschalens oder Bauteilen reißen durch mechanische Belastung beim Umsetzen oder beim Transport. Diese Beschädigungen basieren auf Fehleinschätzungen zum Abbindefortschritt und der korrespondierenden Festigkeitsausprägung der Feuerbetone. Diese wiederum sind auf Lücken im Stand der Technik zurück zu führen.
Für PCE-verflüssigte und CA-Zement-gebundene Korund-Feuerbetonen mit einer Al₂O₃- und Al₂O₃-SiO₂-Matrix, werden die Defizite des Stands der Technik für diese Feuerbetonklasse identifiziert: Diese liegen im Bereich der Verflüssigungswirkung und des ersten Ansteifens der Feuerbetone, der Hydratation des CA-Zements in den Feuerbetonen und der Festigkeitsausprägung der Feuerbetone. Hieraus leitet sich ein entsprechender Forschungsbedarf ab.
Am Beispiel von zwei PCE-verflüssigten (PCE mit kurzer Hauptkette und langen Seitenketten sowie PCE mit langer Hauptkette und kurzen Seitenketten) und CA-Zement-gebundenen (70 % Al₂O₃) Feuerbetonen mit einer reaktivtonerde-basierten und einer reaktivtonerde-mikrosilika-basierten Matrix werden abbindekinetische Untersuchungen durchgeführt. Anhand verschiedener abbindekinetischer Messmethoden, wie Schallgeschwindigkeit oder elektrischer Leitfähigkeit, und einigen ergänzenden Messung, wie beispielsweise das ζ-Potential, wird der Abbindeverlauf der Feuerbetone untersucht und die Defizite aus dem Stand der Technik aufgeklärt.
Im Detail wurde der Stand der Technik um folgende Erkenntnisse ergänzt:
• Verflüssigung von Feuerbetonen mit PCE-Molekülen: Es wurde festgestellt, dass die Verflüssigungswirkung und das erste Ansteifen maßgeblich durch die Struktur der Verflüssigermoleküle hervorgerufen werden.
PCE-Moleküle mit langen Seitenketten verflüssigen eher sterisch. Durch die Vermittlung von Ca²⁺ aus dem CA-Zement wird die Adsorption der PCE-Moleküle verstärkt. Freie PCE-Moleküle können auf CAH-Phasen (Hydratationsprodukte) adsorbieren und somit die Fließfähigkeit des Feuerbetons für eine gewisse Zeit aufrechterhalten.
PCE-Moleküle mit kurzen Seitenketten verflüssigen elektrosterisch. Bei Lösung von Ca²⁺ aus dem CA-Zement kommt es zu einer Ca-PCE Gel-Bildung und einer korrespondierenden Koagulation der Feuerbetonmatrix und der Feuerbeton steift zeitnah nach dem Mischen an.
• Hydratation von CA-Zement: Die Hydratation von CA-Zement in den Feuerbetonen wird wesentlich durch die Länge der Seitenketten der PCE-Moleküle bzw. der Anwesenheit von Zitronensäure beeinflusst.
In Feuerbetonen die mit PCE-Molekülen mit langen Seitenketten verflüssigt wurden, kann der CA-Zement weitestgehend frei hydratisieren. Der CAH-Phasenanteil steigt in zwei Abschnitten, getrennt von einer dormanten Phase. Die dormante Phase der CA Zementhydratation wurde auf eine Lösungshemmung der Al-O-H-Passivierungsschicht auf dem CA-Zement bei mäßigem pH-Wert (pH = 12,3) zurückgeführt.
In Feuerbetonen die mit PCE-Molekülen mit kurze Seitenketten und Zitronensäure verflüssigt werden, wird die Hydratationsreaktion durch eine Ca-Citrat-PCE-Al(OH)₄-Gelbildung stark gehemmt. Es besteht die Vermutung, dass die Bindung von Ca²⁺ in dem Gel zum einen eine sehr ausgeprägte dormante Phase (pH < 12,3), mit einer schlechten Löslichkeit der Passivierungsschicht, bewirkt und zum anderen auch die Fällung von CAH-Phasen unterdrückt.
• Festigkeitsausprägung von CA-Zement-gebundenen Feuerbetonen:
Eine Koagulation bewirkt die erste Festigkeitssteigerung der Feuerbetone auf σB < 1 MPa. Im Anschluss findet die Hauptfestigkeitssteigerung auf Grund von Austrocknung durch Hydratation und Verdunstung statt. Der weitere Teil der Festigkeitssteigerung wird durch die Reduzierung der Porosität durch expansive CA-Zementhydratation und die hohe spezifische Oberfläche sowie deren weitere Erhöhung durch die CA-Zementhydratation bewirkt.
Aus den einzelnen abbindekinetischen Effekten können, zusammen mit dem Stand der Technik und den neuen Erkenntnissen, mikrostrukturelle Abbindemodelle und Modelle zur Festigkeitsentwicklung der Feuerbetone abgeleitet werden. In Folge kann für die zwei Feuerbetone zu jedem Zeitpunkt des Abbindens eine Aussage zum Abbindefortschritt und zur Festigkeitsausprägung getätigt werden. Einige der Abbindemechanismen und festigkeitsbildenden Mechanismen können auf andere Feuerbetonzusammensetzungen übertragen werden.
Virtual Reality ist ein ein Bereich wachsenden Interesses, da es eine besonders intuitive Art der Benutzerinteraktion darstellt. Noch immer wird nach Lösungen zu technischen Problemstellungen gesucht, wie etwa der Latenz zwischen der Nutzereingabe und der Reaktion der Darstellung oder dem Kompromiss zwischen der visuellen Qualität und der erreichten Framerate. Dies gilt insbesondere für visuelle Effekte auf spekularen und halbtransparenten Oberflächen und in Volumen. Eine Lösung stellt das in dieser Arbeit vorgestellte verteilte Rendersystem dar, in dem die Bildsynthese in einen präzisen, aber kostenaufwändigen physikbasierten Renderthread mit niedriger Bildwiederholrate und einen schnellen Reprojektionsthread mit hoher Bildwiederholrate aufgeteilt wird, wodurch die Reaktionsgeschwindigkeit und Interaktivität erhalten bleiben. In diesem Zusammenhang werden zwei neue Reprojektionsverfahren vorgestellt, die einerseits Reflexionen und Refraktionen auf geraytracten Oberflächen und andererseits volumetrische Lichtausbreitung beim Raymarching abdecken. Das vorgestellte Setup kann in verschiedenen Gebieten zum Einsatz kommen um das VR Erlebnis zu verbessern. Im Zuge dieser Arbeit wurden drei innovative Trainingsanwendungen umgesetzt, um den Mehrwert von Virtual Reality im Bezug auf drei Stufen des Lernens zu untersuchen: Beobachtung, Interaktion und Zusammenarbeit. Für jede Stufe wurde ein interdisziplinäres Curriculum, das bislang mit traditionellen Medien unterrichtet wurde, in eine VR Umgebung übertragen, um zu untersuchen, wie gut sich virtuelle Realität als eine natürliche, flexible und effiziente Lernmethode eignet.
1. Satzung zur Änderung der Satzung über die Leitung und die innere Struktur wissenschaftlicher Einrichtungen und Betriebseinheiten der Universität Koblenz-Landau
1. Satzung zur Änderung der Satzung über die Verleihung der Bezeichnung außerplanmäßige Professorin oder außerplanmäßiger Professor der Universität Koblenz-Landau
1. Ordnung zur Änderung der Grundordnung der Universität Koblenz-Landau
Thousands of chemicals from daily use are being discharged from civilization into the water cycle via different pathways. Ingredients of personal care products, detergents, pharmaceuticals, pesticides, and industrial chemicals thus find their way into the aquatic ecosystems and may cause adverse impacts on the ecology. Pharmaceuticals for instance, represent a central group of anthropogenic chemicals, because of their designed potency to interfere with physiological functions in organisms. Ecotoxicological effects from pharmaceutical burden have been verified in the past. Therapeutic groups with pronounced endocrine disrupting potentials such as steroid hormones gain increasing focus in environmental research as it was reported that they cause endocrine disruption in aquatic organisms even when exposed to environmentally relevant concentrations. This thesis considers the comprehensive investigation of the occurrence of corticosteroids and progestogens in wastewater treatment plant (WWTP) effluents and surface waters as well as the elucidation of the fate and biodegradability of these steroid families during activated sludge treatment. For the first goal of the thesis, a robust and highly sensitive analytical method based on liquid chromatography-tandem mass spectrometry (LC-MS/MS) was developed in order to simultaneously determine the occurrence of around 60 mineralocorticoids, glucocorticoids and progestogens in the aquatic environment. A special focus was set to the compound selection due to the diversity of marketed synthetic steroids. Some analytical challenges have been approved by individual approaches regarding sensitivity enhancement and compound stabilities. These results may be important for further research in environmental analysis of steroid hormones. Reliable and low quantification limits are the perquisite for the determination of corticosteroids and progestogens at relevant concentrations due to low consumption volumes and simultaneously low effect-based trigger values. Achieved quantification limits for all target analytes ranged between 0.02 ng/L and 0.5 ng/L in surface water and 0.05 ng/L to 5 ng/L in WWTP effluents. This sensitivity enabled the detection of three mineralocorticoids, 23 glucocorticoids and 10 progestogens within the sampling campaign around Germany. Many of them were detected for the first time in the environment, particularly in Germany and the EU. To the best of our knowledge, this in-depth steroid screening provided a good overview of single steroid burden and allowed for the identification of predominantly steroids of each steroid
type analyzed for the first time. The frequent detection of highly potent synthetic steroids (e.g. triamcinolone acetonide, clobetasol propionate, betamethasone valerate, dienogest, cyproterone acetate) highlighted insufficient removal during conventional Summary wastewater treatment and indicated the need for regulation to control their emission since the steroid concentrations were found to be above the reported effect-based trigger values for biota. Overall, the study revealed reliable environmental data of poorly or even not analyzed steroids. The results complement the existing knowledge in this field but also providednew information which can beused particularly for compound prioritization in ecotoxicological research and environmental analysis. Based on the data obtained from the monitoring campaign, incubation experiments were conducted to enable the comparison of the biodegradability and transformation processes in activated sludge treatment for structure-related steroids under aerobic and standardized experimental conditions. The compounds were accurately selected to cover manifold structural moieties of commonly used glucocorticoids, including non-halogenated and halogenated steroids, their mono- and diesters, and several acetonide-type steroids. This approach allowed for a structure-based interpretation of the results. The obtained biodegradation rate constants suggested large variations in the biodegradability (half-lifes ranged from < 0.5 h to > 14 d). An increasing stability was identified in the order from non-halogenated steroids (e.g. hydrocortisone), over 9α-halogenated steroids (e.g. betamethasone), to C17-monoesters (e.g. betamethasone 17-valerate, clobetasol propionate), and finally to acetonides (e.g. triamcinolone acetonide), thus suggesting a strong relationship of the biodegradability with the glucocorticoid structure. Some explanations for this behavior have been received by identifying the transformation products (TPs) and elucidating individual transformation pathways. The results revealed the identification of the likelihood of transformation reactions depending on the chemical steroid structure for the first time. Among the identified TPs, the carboxylates (e.g. TPs of fluticasone propionate, triamcinolone acetonide) have been shown persistency in the subsequent incubation experiments. The newly identified TPs furthermore were frequently detected in the effluents of full-scale wastewater treatment plants. These findings emphasized i) the transferability of the lab-scale degradation experiments to real world and that ii) insufficient removals may cause adverse effects in the aquatic environment due to the ability of the precursor steroids and TPs to interact with the endocrine system in biota. For the last goal, the conceptual study for glucocorticoids was applied to progestogens.
Here, two sub-types of the steroid family frequently used for hormonal contraception were selected (17α-hydroxyprogesterone and 19-norstestosterone type). The progestogens showed a fast and complete degradation within six hours, and thus empathizes pronounced biodegradability. However, cyproterone acetate and dienogest Summary have been found to be more recalcitrant in activated sludge treatment. This was consistent with their ubiquitously occurrence during the previous monitoring campaign. The elucidation of TPs again revealed some crucial information regarding the observed behavior and highlighted furthermore the formation of hazardous TPs. It was shown that 19-nortestosterone type steroids are able to undergo aromatization at ring A in contact with activated sludge, leading to the formation of estrogen-like TPs with a phenolic moiety at ring A. In the case of norethisterone the formation of 17α-ethinylestradiol was confirmed, which is a well-known potent synthetic estrogen with elevated ecotoxicological potency. Thus, the results indicated for the very first time an unknown source of estrogenic compounds, particularly for 17α-ethinylestradiol. In conclusion, some steroids were found to be very stable in activated sludge treatment, others degrade well, and others which do degrade but predominantly to active TPs depending on their chemical structure. Fluorinated acetal steroids such as triamcinolone acetonide and fluocinolone acetonide are poorly biodegradable, which is reflected in high concentrations detected ubiquitously in WWTP effluents. Endogenous steroids and their most related synthetic once such as hydrocortisone, prednisolone or 17α-hydroxyprogesterone are readily biodegradable. Regardless their high influent concentrations, they are almost completely removed in conventional WWTPs. Steroids between this range have been found to form elevated quantities of TPs which are partially still active, which particularly the case for betamethasone, fluticasone propionate, cyproterone acetate or dienogest. The thesis illustrates the need for an extensive evaluation of the environmental risks and carried out that corticosteroids and progestogens merit more attention in environmental regulatory and research than it is currently the case
Der Wettbewerb um die besten Technologien zur Realisierung des autonomen Fahrens ist weltweit in vollem Gange.
Trotz großer Anstrengungen ist jedoch die autonome Navigation in strukturierter und vor allem unstrukturierter Umgebung bisher nicht gelöst.
Ein entscheidender Baustein in diesem Themenkomplex ist die Umgebungswahrnehmung und Analyse durch passende Sensorik und entsprechende Sensordatenauswertung.
Insbesondere bildgebende Verfahren im Bereich des für den Menschen sichtbaren Spektrums finden sowohl in der Praxis als auch in der Forschung breite Anwendung.
Dadurch wird jedoch nur ein Bruchteil des elektromagnetischen Spektrums genutzt und folglich ein großer Teil der verfügbaren Informationen zur Umgebungswahrnehmung ignoriert.
Um das vorhandene Spektrum besser zu nutzen, werden in anderen Forschungsbereichen schon seit Jahrzehnten \sog spektrale Sensoren eingesetzt, welche das elektromagnetische Spektrum wesentlich feiner und in einem größeren Bereich im Vergleich zu klassischen Farbkameras analysieren. Jedoch können diese Systeme aufgrund technischer Limitationen nur statische Szenen aufnehmen. Neueste Entwicklungen der Sensortechnik ermöglichen nun dank der \sog Snapshot-Mosaik-Filter-Technik die spektrale Abtastung dynamischer Szenen.
In dieser Dissertation wird der Einsatz und die Eignung der Snapshot-Mosaik-Technik zur Umgebungswahrnehmung und Szenenanalyse im Bereich der autonomen Navigation in strukturierten und unstrukturierten Umgebungen untersucht. Dazu wird erforscht, ob die aufgenommen spektralen Daten einen Vorteil gegenüber klassischen RGB- \bzw Grauwertdaten hinsichtlich der semantischen Szenenanalyse und Klassifikation bieten.
Zunächst wird eine geeignete Vorverarbeitung entwickelt, welche aus den Rohdaten der Sensorik spektrale Werte berechnet. Anschließend wird der Aufbau von neuartigen Datensätzen mit spektralen Daten erläutert. Diese Datensätze dienen als Basis zur Evaluation von verschiedenen Klassifikatoren aus dem Bereich des klassischen maschinellen Lernens.
Darauf aufbauend werden Methoden und Architekturen aus dem Bereich des Deep-Learnings vorgestellt. Anhand ausgewählter Architekturen wird untersucht, ob diese auch mit spektralen Daten trainiert werden können. Weiterhin wird die Verwendung von Deep-Learning-Methoden zur Datenkompression thematisiert. In einem nächsten Schritt werden die komprimierten Daten genutzt, um damit Netzarchitekturen zu trainieren, welche bisher nur mit RGB-Daten kompatibel sind. Abschließend wird analysiert, ob die hochdimensionalen spektralen Daten bei der Szenenanalyse Vorteile gegenüber RGB-Daten bieten
In dieser Arbeit wird die Geschwindigkeit des Simulationscodes zur Pho-
tonenausbreitung beim IceCube-Projekt (clsim) optimiert. Der Prozess der
GPU-Code-Analyse und Leistungsoptimierung wird im Detail beschrie-
ben. Wenn beide Codes auf der gleichen Hardware ausgeführt werden,
wird ein Speedup von etwa 3x gegenüber der ursprünglichen Implemen-
tierung erreicht. Vergleicht man den unveränderten Code auf der derzeit
von IceCube verwendeten Hardware (NVIDIA GTX 1080) mit der opti-
mierten Version, die auf einer aktuellen GPU (NVIDIA A100) läuft, wird
ein Speedup von etwa 9,23x beobachtet. Alle Änderungen am Code wer-
den vorgestellt und deren Auswirkung auf die Laufzeit und Genauigkeit
der Simulation diskutiert.
Der für die Optimierung verfolgte Weg wird dann in einem Schema
verallgemeinert. Programmierer können es als Leitfaden nutzen, um große
und komplexe GPU-Programme zu optimieren. Darüber hinaus wird die
per warp job-queue, ein Entwurfsmuster für das load balancing innerhalb
eines CUDA-Thread-Blocks, im Detail besprochen.
Scientific and public interest in epidemiology and mathematical modelling of disease spread has increased significantly due to the current COVID-19 pandemic. Political action is influenced by forecasts and evaluations of such models and the whole society is affected by the corresponding countermeasures for containment. But how are these models structured?
Which methods can be used to apply them to the respective regions, based on real data sets? These questions are certainly not new. Mathematical modelling in epidemiology using differential equations has been researched for quite some time now and can be carried out mainly by means of numerical computer simulations. These models are constantly being refinded and adapted to corresponding diseases. However, it should be noted that the more complex a model is, the more unknown parameters are included. A meaningful data adaptation thus becomes very diffcult. The goal of this thesis is to design applicable models using the examples of COVID-19 and dengue, to adapt them adequately to real data sets and thus to perform numerical simulations. For this purpose, first the mathematical foundations are presented and a theoretical outline of ordinary differential equations and optimization is provided. The parameter estimations shall be performed by means of adjoint functions. This procedure represents a combination of static and dynamical optimization. The objective function corresponds to a least squares method with L2 norm which depends on the searched parameters. This objective function is coupled to constraints in the form of ordinary differential equations and numerically minimized, using Pontryagin's maximum (minimum) principle and optimal control theory. In the case of dengue, due to the transmission path via mosquitoes, a model reduction of an SIRUV model to an SIR model with time-dependent transmission rate is performed by means of time-scale separation. The SIRUV model includes uninfected (U) and infected (V ) mosquito compartments in addition to the susceptible (S), infected (I) and recovered (R) human compartments, known from the SIR model. The unknwon parameters of the reduced SIR model are estimated using data sets from Colombo (Sri Lanka) and Jakarta (Indonesia). Based on this parameter estimation the predictive power of the model is checked and evaluated. In the case of Jakarta, the model is additionally provided with a mobility component between the individual city districts, based on commuter data. The transmission rates of the SIR models are also dependent on meteorological data as correlations between these and dengue outbreaks have been demonstrated in previous data analyses. For the modelling of COVID-19 we use several SEIRD models which in comparison to the SIR model also take into account the latency period and the number of deaths via exposed (E) and deaths (D) compartments. Based on these models a parameter estimation with adjoint functions is performed for the location Germany. This is possible because since the beginning of the pandemic, the cumulative number of infected persons and deaths
are published daily by Johns Hopkins University and the Robert-Koch-Institute. Here, a SEIRD model with a time delay regarding the deaths proves to be particularly suitable. In the next step, this model is used to compare the parameter estimation via adjoint functions with a Metropolis algorithm. Analytical effort, accuracy and calculation speed are taken into account. In all data fittings, one parameter each is determined to assess the estimated number of unreported cases.
Soziale Netzwerke spielen im Alltagsleben der Schülerinnen und Schüler eine entscheidende Rolle. Im Rahmen der vorliegenden Masterarbeit wurde ein Konzept für die Anzeige von Profilvorschlägen innerhalb des sozialen Netzwerks „InstaHub“, welches ein speziell für den Informatikunterricht programmiertes Werkzeug zum Thema „Datenbanken“ darstellt, entwickelt. Als Hürde stellte sich dabei dar, dass von den etablierten sozialen Netzwerken nur wenig bis gar keine Informationen über die Berechnung von Profil- oder Freundschaftsvorschlägen preisgegeben werden. Daher wurde zunächst das Wesen von Beziehungen zwischen Menschen in nicht-internetbasierten und in internetbasierten sozialen Netzwerken sowie die Gründe für Beziehungen zwischen Menschen in diesen Netzwerken dargelegt. Anhand der Beobachtung von Vorschlägen in anderen sozialen Netzwerken sowie der in InstaHub gespeicherten Nutzerdaten wurde ein Algorithmus für Profilvorschläge in InstaHub entworfen und mitsamt einer passenden Visualisierung entsprechend implementiert. Den zweiten Teil der Arbeit bildete eine Unterrichtseinheit für die Sekundarstufe II mit dem Thema Gefahren der Erzeugung und Verarbeitung von personenbezogenen Daten. In der Unterrichtseinheit dienen die Profilvorschläge in InstaHub, die auf von InstaHub über dessen Nutzer gesammelten Daten aufbauen, als Einstieg in die Thematik. Anschließend wird der Fokus von sozialen Netzwerken auf andere Online-Dienste erweitert und auf die Verarbeitung und Weitergabe dieser Daten eingegangen.
This thesis focuses on approximate inference in assumption-based argumentation frameworks. Argumentation provides a significant idea in the computerization of theoretical and practical reasoning in AI. And it has a close connection with AI, engaging in arguments to perform scientific reasoning. The fundamental approach in this field is abstract argumentation frameworks developed by Dung. Assumption-based argumentation can be regarded as an instance of abstract argumentation with structured arguments. When facing a large scale of data, a challenge of reasoning in assumption-based argumentation is how to construct arguments and resolve attacks over a given claim with minimal cost of computation and acceptable accuracy at the same time. This thesis proposes and investigates approximate methods that randomly select and construct samples of frameworks based on graphical dispute derivations to solve this problem. The presented approach aims to improve reasoning performance and get an acceptable trade-off between computational time and accuracy. The evaluation shows that for reasoning in assumption-based argumentation, in general, the running time is reduced with the cost of slightly low accuracy by randomly sampling and constructing inference rules for potential arguments over a query.
Mathematical models of species dispersal and the resilience of metapopulations against habitat loss
(2021)
Habitat loss and fragmentation due to climate and land-use change are among the biggest threats to biodiversity, as the survival of species relies on suitable habitat area and the possibility to disperse between different patches of habitat. To predict and mitigate the effects of habitat loss, a better understanding of species dispersal is needed. Graph theory provides powerful tools to model metapopulations in changing landscapes with the help of habitat networks, where nodes represent habitat patches and links indicate the possible dispersal pathways between patches.
This thesis adapts tools from graph theory and optimisation to study species dispersal on habitat networks as well as the structure of habitat networks and the effects of habitat loss. In chapter 1, I will give an introduction to the thesis and the different topics presented in this thesis. Chapter 2 will then give a brief summary of tools used in the thesis.
In chapter 3, I present our model on possible range shifts for a generic species. Based on a graph-based dispersal model for a generic aquatic invertebrate with a terrestrial life stage, we developed an optimisation model that models dispersal directed to predefined habitat patches and yields a minimum time until these patches are colonised with respect to the given landscape structure and species dispersal capabilities. We created a time-expanded network based on the original habitat network and solved a mixed integer program to obtain the minimum colonisation time. The results provide maximum possible range shifts, and can be used to estimate how fast newly formed habitat patches can be colonised. Although being specific for this simulation model, the general idea of deriving a surrogate can in principle be adapted to other simulation models.
Next, in chapter 4, I present our model to evaluate the robustness of metapopulations. Based on a variety of habitat networks and different generic species characterised by their dispersal traits and habitat demands, we modeled the permanent loss of habitat patches and subsequent metapopulation dynamics. The results show that species with short dispersal ranges and high local-extinction risks are particularly vulnerable to the loss of habitat across all types of networks. On this basis, we then investigated how well different graph-theoretic metrics of habitat networks can serve as indicators of metapopulation robustness against habitat loss. We identified the clustering coefficient of a network as the only good proxy for metapopulation robustness across all types of species, networks, and habitat loss scenarios.
Finally, in chapter 5, I utilise the results obtained in chapter 4 to identify the areas in a network that should be improved in terms of restoration to maximise the metapopulation robustness under limited resources. More specifically, we exploit our findings that a network’s clustering coefficient is a good indicator for metapopulation robustness and develop two heuristics, a Greedy algorithm and a deducted Lazy Greedy algorithm, that aim at maximising the clustering coefficient of a network. Both algorithms can be applied to any network and are not specific to habitat networks only.
In chapter 6, I will summarize the main findings of this thesis, discuss their limitations and give an outlook of future research topics.
Overall this thesis develops frameworks to study the behaviour of habitat networks and introduces mathematical tools to ecology and thus narrows the gap between mathematics and ecology. While all models in this thesis were developed with a focus on aquatic invertebrates, they can easily be adapted to other metapopulations.
Previous research concerned with early science education revealed that guided play can support young children’s knowledge acquisition. However, the questions whether guided play maintains other important prerequisites such as children’s science self-concept and how guided play should be implemented remain unanswered. The present dissertation encompasses three research articles that investigated 5- to 6-year-old children’s science knowledge, science theories, and science self-concept in the stability domain and their relation to interindividual prerequisites. Moreover, the articles examined whether children’s science knowledge, science theories, and science self-concept can be supported by different play forms, i.e., guided play with material and verbal scaffolds, guided play with material scaffolds, and free play. The general introduction of the present dissertation first highlights children’s cognitive development, their science self-concept, and interindividual prerequisites, i.e., fluid and crystallised intelligence, mental rotation ability, and interest in block play. These prerequisites are applied to possible ways of supporting children during play. The first article focused on the measurement of 5-to-6-year-old children’s stability knowledge and its relation to interindividual prerequisites. Results suggested that children’s stability knowledge could be measured reliably and validly, and was related to their fluid and crystallised intelligence. The second article was concerned with the development of children’s intuitive stability theories over three points of measurement and the effects of guided and free play, children’s prior theories as well as their intelligence on these intuitive theories. Results implied that guided play with material and verbal scaffolds supported children’s stability theories more than the other two play forms, i.e., guided play with material scaffolds and free play. Moreover, consistency of children’s prior theories, their fluid and crystallised intelligence were related to children’s theory adaptation after the intervention. The third article focused on the effect of the playful interventions on children’s stability knowledge and science self-concept over three points of measurement. Furthermore, the reciprocal effects between knowledge acquisition and science self-concept were investigated. Results implied that guided play supported knowledge acquisition and maintained children’s science self-concept. Free play did not support children’s stability knowledge and decreased children’s science self-concept. No evidence for reciprocal effects between children’s stability knowledge and their science self-concept was found. Last, in a general discussion, the findings of the three articles are combined and reflected amidst children’s cognitive development. Summarising, the present dissertation shows that children’s science knowledge, science theories, and science self-concept can be supported through guided play that considers children’s cognitive development.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
Seit der Bologna-Reform wird von Bund und Ländern eine kontinuierliche Verbesserung der Qualität des Unterrichts in der Schule, die häufig mit der Professionalisierung der zukünftigen Lehrer und der Lehramtsausbildung verbunden wird, angestrebt. Die Qualität des Unterrichts wird mit der Professionalisierung der angehenden Lehrer und der Lehramtsausbildung verbunden. In den meisten Studien zur Qualitätsverbesserung erfolgt die Betrachtung überwiegend aus universitärer Sicht und selten auf das Unterrichtsfach Sport bezogen. An diesen beiden Punkten knüpft die qualitative Studie an und führt zu der zentralen Fragestellung: Bestehen Unterschiede in den Sichtweisen von Lehrenden und Lernenden zur Professionalisierung von Sportlehrkräften zu den einzelnen Ausbildungsphasen in Rheinland-Pfalz?
Mithilfe von 101 Leitfadeninterviews und der Auswertung nach der Grounded Theory kann diese Ausgangsfrage gezielt beantwortet werden. Befragt werden Lehrende der Universitäten, der staatlichen Studienseminare und der Schule sowie Lernende, dazu zählen Referendare/innen sowie Studierende. Im Verlauf der Studie kristallisiert sich in allen Personengruppen einheitlich der „fehlende Schulbezug“ als Schlüsselelement (Kernkategorie) in der ersten und zweiten Ausbildungsphase heraus. Die Interviewten, die verschiedenen Schulformen angehören, geben diesbezüglich konkrete, sportspezifische und teilweise fächerübergreifende Optimierungsvorschläge. Ein Schwerpunkt bildet dabei, frühzeitig den Bezug zum Schulalltag herzustellen und gleichzeitig Unterrichtserfahrungen mit schulischen Lerngruppen zu sammeln, um ihre unterschiedlichen motorischen Fähigkeiten und Fertigkeiten kennenzulernen. Die Verbesserungsansätze betreffen die universitäre Phase und die Ausbildungszeit in den Studienseminaren und Schulen, wobei die Beteiligten eine intensivere Vernetzung der einzelnen Institutionen für nötig erachten. An einer gemeinsamen, kontinuierlichen Zusammenarbeit zur Professionalisierung in der Sportlerausbildung und somit der Optimierung der Sportlehrerausbildung ist allen Beteiligten gelegen.
Viele chemische Verbindungen, einschließlich Spurenelemente aus natürlichen und anthropogenen Quellen, verbleiben temporär oder endgültig in den Sedimenten der Oberflächengewässer. Ob diese als Quelle oder Senke von Metallen und Metalloiden (Metall(oid)e) fungieren, hängt von der Dynamik der biogeochemischen Prozesse ab, die an der Wasser-Sediment-Grenzschicht (sediment water interface - SWI) ablaufen. Wichtige Informationen zu biogeochemischen Prozessen sowie zur Exposition, zum Verbleib und zum Transport von Schadstoffen an der SWI lassen sich durch die Ermittlung von Konzentrationsprofilen im Sedimentporenwasser gewinnen. Dabei besteht die Herausforderung zum einen darin eine räumliche Auflösung zu realisieren, die es erlaubt, bestehende Gradienten adäquat zu erfassen und zu gleich hinreichend viele Parameter aufzunehmen, um die komplexen Prozesse zu verstehen. Zum anderen gilt es die Bildung von Probenahme-Artefakten zu verhindern, die durch die labile Natur der SWI sowie die steilen biogeochemischen Gradienten verursacht werden.
Vor diesem Hintergrund wurde im ersten Teil dieser Arbeit ein System zur automatisierten, minimal-invasiven Untersuchung der SWI entwickelt und erprobt. Das System ermöglicht die Beprobung des Sedimentporenwassers ungestörter oder manipulierter Sedimente bei gleichzeitiger Erfassung von Parametern wie Redoxpotential, Sauerstoffgehalt und pH-Wert. Im Rahmen eines Inkubationsexperimentes wurde der Einfluss von Versauerung und mechanischer Störung (Resuspension) auf die Mobilität von 13 Metall(oid)en untersucht, die mittels Tripel-Quadrupol induktiv gekoppelter Plasma-Massenspektrometrie (ICP-QQQ-MS) quantifiziert wurden. Während die meisten Metalle in Folge von Sulfid-Verwitterung freigesetzt wurden hatte die mechanische Störung einen großen Einfluss auf die Mobilität der oxidbildenden Elemente As, Mo, Sb, U und V. Zusätzlich wurde gezeigt, dass das Probenahme-System zudem Optionen zur Untersuchung der Größenfraktionierung von Metall(oid)en sowie der Speziierung von As(III/V) und Sb(III/V) bietet.
Im zweiten Teil dieser Arbeit wurde der Fokus - mit einem ähnlichen experimentellen Design - auf die Prozesse gelegt, die zur Freisetzung von Metall(oid)en führen. Zu diesem Zweck wurden zwei Inkubationsexperimente mit unterschiedlicher Sauerstoffversorgung parallel durchgeführt. Erstmals wurden mittels ICP-QQQ-MS die Nichtmetalle Kohlenstoff, Phosphor und Schwefel in einem Analyselauf gemeinsam mit 13 Metall(oid)en in Sedimentporenwasser quantifiziert. Die Größenfraktionierung der Metall(oid)e wurde über den gesamten Verlauf der Experimente überwacht. Es bestätigte sich, dass Sediment-Resuspension die Mobilität von Metalloiden wie As, Sb und V fördert, während die Freisetzung der meisten Metalle weitgehend auf die Verwitterung von Pyrit zurückzuführen war. Der kolloidale Beitrag (0,45 - 16 μm) zur Mobilisierung war nur für wenige Elemente relevant.
Schließlich wurde das Probenahmesystem im Rahmen eines neuen Ansatzes zur Sedimentbewertung eingesetzt. Dabei wurden ungestörte Sedimentkerne unterschiedlich kontaminierter Positionen im Trave-Ästuar untersucht und neben 16 Metall(oid)en, die Nichtmetalle C, P und S sowie die Ionen NH4+, PO43- und SO42- berücksichtigt. Durch den ersten umfangreichen Vergleich mit in-situ Dialyse-basierter Porenwasserbeprobung wurde die Eignung des entwickelten Ansatzes zur Erfassung der Feldbedingungen nachgewiesen. Die Porenwasseruntersuchungen zusammen mit ergänzenden Resuspensionsexperimenten in biogeochemischen Mikrokosmen und sequentieller Extraktion ergaben, dass das am geringsten „belastetste“ Sediment des Untersuchungsgebiets das größte Risiko für die Freisetzung von Metall(oid)en darstellt. Jedoch betrugen die potenziell freigesetzten Mengen je kg Sediment nur wenige Promille der durchschnittlichen täglichen Fracht der Trave.
Grundordnung der Universität Koblenz-Landau
Satzung über die Leitung und die innere Struktur wissenschaftlicher
Einrichtungen und Betriebseinheiten
der Universität Koblenz-Landau
Satzung über die Verleihung der Bezeichnung außerplanmäßige
Professorin oder außerplanmäßiger Professor
der Universität Koblenz-Landau
Satzung der örtlichen Studierendenschaft an der Universität Koblenz-Landau, Campus Landau
Dreizehnte Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im lehramtsbezogenen Bachelorstudiengang
Berufsbildende Schulen an der Universität
Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Zwölfte Ordnung zur Änderung der Ordnung für die
Prüfung im Masterstudiengang Lehramt an berufsbildenden
Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Zweiundzwanzigste Ordnung zur Änderung der
Ordnung für die Prüfung im lehramtsbezogenen
Zertifikatsstudiengang (Erweiterungsprüfung) an der
Universität Koblenz-Landau und der Hochschule Koblenz
Erste Ordnung zur Änderung der Grundordnung der Universität Koblenz-Landau
Wahlordnung für die Wahlen der Organe der Universität
Koblenz-Landau
Satzung zur Festsetzung von Zulassungszahlen an der
Universität Koblenz-Landau für das Studienjahr
2020/2021
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz-Landau
Ordnung zur Änderung der Einschreibeordnung für die
Universität Koblenz-Landau
Einundzwanzigste Ordnung zur Änderung der Ordnung
für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau und der Hochschule Koblenz
Siebenundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen
Bachelorstudiengang an der Universität Koblenz-
Landau
Dreiundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Zwanzigste Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im Zwei-Fach-Bachelorstudiengang
an der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Prüfungsordnung für
Studierende des Masterstudiengangs „Germanistik:
Dynamiken der Vermittlung“ des Fachbereichs 2: Philologie / Kulturwissenschaften an der Universität Koblenz-Landau
Sechste Ordnung zur Änderung der Ordnung für die
Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Prüfungsordnung für den Bachelorstudiengang „Psychologie“ des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau
Dritte Ordnung zur Änderung der Gemeinsamen
Prüfungsordnung für den Bachelorstudiengang „Mathematische Modellierung“ und den Masterstudiengang „Mathematical Modeling of Complex Systems“ an der Universität Koblenz-Landau
Vierte Ordnung zur Änderung der Gemeinsamen
Prüfungsordnung für den Bachelorstudiengang „Angewandte Naturwissenschaften“ und den Masterstudiengang „Chemie und Physik funktionaler Materialien / Chemistry and Physics of functional Materials“ an der Universität Koblenz-Landau
Rahmenprüfungsordnung der Universität Koblenz-
Landau im Zusammenhang mit der SARS-CoV-2
(Corona)-Pandemie
Änderung der Anlage der Ordnung für die Prüfung im
Masterstudiengang Applied Physics an der Hochschule
Koblenz und der Universität Koblenz-Landau
(Kooperativer Masterstudiengang)
Erste Ordnung zur Änderung der Prüfungsordnung für
den Bachelorstudiengang „Mensch und Umwelt: Psychologie, Kommunikation, Ökonomie“ an der Universität Koblenz-Landau, Campus Landau
Erste Ordnung zur Änderung der Promotionsordnung
des Fachbereichs 8: Psychologie der Universität Koblenz-Landau
Redaktionelle Korrektur betreffed die Satzung zur
Festsetzung von Zulassungszahlen an der Universität
Koblenz-Landau für das Studienjahr 2020/2021 vom
02. Juli 2020
Masterprüfungsordnung für den weiterbildenden Fernstudiengang
„Master of Business Administration“ des
Fachbereiches 4: Informatik der Universität Koblenz-
Landau
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Artificial intelligence (AI) is of rising importance in these days. AI is increasingly used in various company fields. Nonetheless, no high-quality scientific sources could be found stating the use of AI in the field of leadership. This research gap is addressed with this elaboration by performing expert interviews with leaders. In total seventeen companies could be questioned. The results indicate that AI is not widely used in leadership yet since only one company uses it currently and just about 10% of the participants plan the implementation in the closer feature. While the following items ex- plain why companies want to use AI in leadership: Chances for automation, time and cost savings, many important disadvantages and issues prevent companies from actively using it now: No areas of application are known, no need justifies the use, human interactions as a key aspect of leadership is reduced and it is hard to collect all necessary data. Beyond that, it was aimed to identify changes in the field of leadership through the use of AI. This objective could not be addressed due to the limited number of participants using AI in leadership.
Keywords: Leadership, artificial intelligence, transformation, state-of-use
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Wir leben in einer Welt, in der sich Umweltkrisen immer weiter zuspitzen. Um diese Krisen zu entschärfen, braucht es einen sozial-ökologischen Wandel, der mit Verhaltensänderungen in verschiedenen Bereichen des täglichen Lebens einhergehen muss. Ausgehend von dieser gesellschaftlichen Aufgabe, befasst sich die vorliegende Dissertation mit der Frage, wie Verhaltensänderungen auf individueller Ebene angestoßen werden können. Mit dem weltweiten Problem von Plastik in der Umwelt wird ein aktuelles und sozialwissenschaftlich wenig erforschtes Themenfeld aufgegriffen. Es wird untersucht, welche psychologischen Faktoren einen Einfluss darauf haben, den eigenen Plastikkonsum zu reduzieren. Der Fokus liegt dabei insbesondere auf Plastikverpackungen, die den größten Anteil der derzeitigen Plastikproduktion ausmachen. Eine Barriere, die das Aufnehmen von neuen Verhaltensweisen erschwert, stellen die eigenen Gewohnheiten dar. Phasen von Umbrüchen, wie der Umzug in eine neue Stadt, gelten als vielversprechend zur Veränderung von Gewohnheiten. Die Dissertation untersucht daher, ob solche Phasen des Wandels ein Gelegenheitsfenster öffnen können, um alte Gewohnheiten zu durchbrechen und Verhaltensänderungen anzustoßen. Vier Manuskripte nähern sich diesem Thema von einem zunächst breiten Fokus einer Literaturstudie bis hin zu fokussierten Interventionsstudien an. Das Literaturreview (Manuskript 1) fasst 187 Studien zum Umgang mit Plastik aus sozialwissenschaftlicher Perspektive zusammen. Darauf aufbauend, untersucht eine Online-Studie (N = 648) plastikfreie Verhaltensintentionen (Manuskript 2). In einem Strukturgleichungsmodell werden Prädiktoren für Verhaltensintentionen im privaten sowie politischen Bereich analysiert. Zwei Experimentalstudien im Pre-Post-Design schließen an das Verhalten im Privaten an (Manuskript 3 + 4). Es wird untersucht, ob eine Intervention, die während der Fastenzeit (N =140) oder während eines Aktionsmonats (N = 366) präsentiert wird, ein Gelegenheitsfenster zur Konsumreduktion von Plastikverpackungen darstellen kann. Die Ergebnisse der empirischen Arbeiten weisen Moral- und Kontrollüberzeugungen als stärkste Prädiktoren für Verhaltensreduktionen aus. Der Zeitpunkt einer Intervention beeinflusst zudem die Wahrscheinlichkeit ein neues Verhalten auszuprobieren. Die Studien zeigen erste Belege, dass Gelegenheitsfenster umweltfreundliche Verhaltensänderungen im Kontext des Plastikkonsums erleichtern können. Theoretische und praktische Implikationen, wie Gelegenheitsfenstern zu einer sozial-ökologischen Transformation beigetragen können, werden diskutiert.
Graph-based data formats are flexible in representing data. In particular semantic data models, where the schema is part of the data, gained traction and commercial success in recent years. Semantic data models are also the basis for the Semantic Web - a Web of data governed by open standards in which computer programs can freely access the provided data. This thesis is concerned with the correctness of programs that access semantic data. While the flexibility of semantic data models is one of their biggest strengths, it can easily lead to programmers accidentally not accounting for unintuitive edge cases. Often, such exceptions surface during program execution as run-time errors or unintended side-effects. Depending on the exact condition, a program may run for a long time before the error occurs and the program crashes.
This thesis defines type systems that can detect and avoid such run-time errors based on schema languages available for the Semantic Web. In particular, this thesis uses the Web Ontology Language (OWL) and its theoretic underpinnings, i.e., description logics, as well as the Shapes Constraint Language (SHACL) to define type systems that provide type-safe data access to semantic data graphs. Providing a safe type system is an established methodology for proving the absence of run-time errors in programs without requiring execution. Both schema languages are based on possible world semantics but differ in the treatment of incomplete knowledge. While OWL allows for modelling incomplete knowledge through an open-world semantics, SHACL relies on a fixed domain and closed-world semantics. We provide the formal underpinnings for type systems based on each of the two schema languages. In particular, we base our notion of types on sets of values which allows us to specify a subtype relation based on subset semantics. In case of description logics, subsumption is a routine problem. For
the type system based on SHACL, we are able to translate it into a description
logic subsumption problem.
In vielen Teilen der Welt, vor allem in Subsahara-Afrika, ist Wasserknappheit bereits ein allgegenwärtiges Problem. Doch die Trockenjahre 2018 und 2019 zeigten, dass auch in Deutschland die Wasserressourcen endlich sind. Projektionen und Vorhersagen für die nächsten Jahrzehnte weisen zudem darauf hin, dass durch den steigenden Einfluss des Klimawandels die Erneuerungsraten der bestehenden Wasserressourcen zurückgehen, die Entnahmemengen aber aufgrund von Populationswachstum steigen werden. Es ist demnach an der Zeit, alternative und nachhaltige Methoden zu finden, die derzeit vorhandenen Wasserressourcen optimal zu nutzen. Daher rückte in den vergangenen Jahren die Wiederverwendung von geklärtem Abwasser zur Bewässerung landwirtschaftlicher Flächen und/oder der Grundwasseranreicherung in den Fokus der Wissenschaft. Dabei ist aber zu berücksichtigen, dass in geklärtem Abwasser sogenannte Spurenstoffe zu finden sind, d.h. Substanzen, die durch anthropogenen Einfluss in den Wasserkreislauf gelangen. Dabei handelt es sich z.B. um Pharmazeutika, Pestizide und Industriechemikalien, aber auch um Metabolite, die im menschlichen Körper gebildet werden und in das Abwasser gelangen. Durch die Wasseraufbereitungsschritte in den Kläranlagen als auch durch biologische, chemische und physikalische Prozesse in der Bodenpassage bei der Wiederverwendung des geklärten Abwassers werden diese Spurenstoffe zu anderen Substanzen, den Transformationsprodukten (TPs), umgewandelt, die das Spektrum der Spurenstffe zusätzlich erweitern.
Trotz der Tatsache, dass das Vorhandensein von Human-Metaboliten und TPs in ungeklärtem und geklärten Abwasser seit langem bekannt ist, werden sie in gängigen Routine-Messmethoden nur selten berücksichtigt. Daher war es ein erstes Ziel dieser Dissertation eine Analyse-Methode zu erstellen, basierend auf Flüssigchromatographie-Tandem Massenspektrometrie (LC-MS/MS), die ein möglichst breites Spektrum an Spurenstoffen inklusive bekannter Metabolite und TPs enthält. Die entwickelte Multi-Analyt-Methode umfasst insgesamt 80 Ausgangssubstanzen und 74 Metabolite und TPs verschiedener Substanzklassen und ist für die Anwendung in verschiedenen Wassermatrices (Zu- und Ablauf von Kläranlagen, Oberflächenwasser und Grundwasser aus einer Uferfiltrationsanlage) validiert. Dabei wurde auch der Einfluss der MS-Parameter auf die Qualität der Analysedaten untersucht. Trotz der hohen Anzahl an Substanzen konnte eine ausreichende Anzahl an Datenpunkten je Peak generiert werden, wodurch eine hohe Empfindlichkeit und Präzision sowie eine gute Wiederfindung für alle Matrices erreicht wurden. Die Auswahl der Analyten erwies sich als relevant für die Untersuchung von Umweltmatrices, da 95% der Substanzliste in mindestens einer Probe nachgewiesen wurden. Mehrere Spurenstoffe, die bisher nicht im Fokus der gegenwärtigen Multi-Analyt-Methoden standen, wurden bei erhöhten Konzentrationen im Wasserkreislauf quantifiziert (z.B. Oxypurinol). Die Relevanz der Untersuchung von Metaboliten und TPs zeigte sich durch den Nachweis von z.B. Clopidogrel-Säure und Valsartansäure mit deutlich höheren Konzentrationen als ihre Ausgangssubstanzen. Valsartansäure konnte zudem sogar im Uferfiltrat detektiert werden.
Durch die Einbindung der Metabolite, die durch biologische Prozesse im Körper entstehen, und den biologischen und chemischen TPs, eignet sich die Multi-Analyt-Methode auch zur Aufklärung von Abbaumechanismen in natürlichen Behandlungssystemen zur Wasserwiederverwendung, wozu es in der Literatur bisher nur wenige Angaben gibt. Im Rahmen der Dissertation wurden Proben aus zwei Systemen analysiert, einem im Pilotmaßstab entwickelten oberirdischen sequenziellen Biofiltrationssystem (SBF) und einem großmaßstäblichen Bodenpassagen-System (SAT). Im SBF-System konnten hauptsächlich biologische Abbaumechanismen beobachtet werden, was durch die Entstehung biologischer TPs deutlich gezeigt wurde. Die Effizienz des Abbaus wurde dabei durch eine Zwischenbelüftung erhöht, die oxische Bedingungen hervorrief. Im SAT-System kam es zu einer Kombination von Bioabbau- und Sorptionsprozessen. Es wurde beobachtet, dass bei einigen biologisch abbaubaren Spurenstoffen ein geringerer Abbau erreicht wurde als im SBF-System, was auf unterschiedliche Redox-Bedingungen und eine andere mikrobielle Gemeinschaft zurückzuführen war. Als Vorteil des SAT-Systems gegenüber des SBF erwies sich die Sorptionsfähigkeit des natürlichen Bodens. Vor allem positiv geladene Spurenstoffe zeigten eine Entfernung aufgrund von ionischen Wechselwirkungen mit negativ geladenen Bodenpartikeln. Auf der Grundlage ihrer physikalisch-chemischen Eigenschaften bei Umgebungs-pH, ihres Entfernungsgrades in den untersuchten Systemen und ihres Vorkommens im einfließenden Wasser konnte eine Auswahl von prozessbasierten Indikatorsubstanzen vorgeschlagen werden.
In den vorherigen Arbeiten wurde in Kläranlagenabläufen häufig ein Spurenstoff in erhöhten Konzentrationen nachgewiesen, der bisher wenig im Fokus der Umweltforschung stand: das Antidiabetikum Sitagliptin (STG). STG zeigt nur eine geringe Abbaubarkeit in biologischen Systemen. Daher wurde untersucht, inwieweit eine chemische Aufbereitung mittels Ozonung einen Abbau gewährleisten kann. STG weist in seiner Struktur ein aliphatisches primäres Amin als entscheidende Angriffsstelle für das Ozonmolekül auf. In der Literatur finden sich kaum Informationen zum Verhalten dieser funktionellen Gruppe während der Ozonung. Die in dieser Dissertation erzielten Ergebnisse können daher exemplarisch für andere Spurenstoffe mit Amingruppen herangezogen werden. Es zeigte sich eine pH-abhängige Abbaukinetik aufgrund der Protonierung des primären Amins bei niedrigen pH-Werten. Bei für die Umwelt und Kläranlagen typischen pH-Werten im Bereich 6 – 8 wies STG Abbaukinetiken mittels Ozon im Bereich 103 M-1s-1 auf, mit einem vollständigen Abbau kann allerdings erst bei deutlich höheren pH-Werten > 9 gerechnet werden. Die Transformation des primären Amins zu einer Nitro-Gruppe wurde als Hauptabbaumechanismus in der Ozonung identifiziert. Ebenfalls wurde die Entstehung weiterer TPs wie z.B. eines Diketons und Trifluoressigsäure (TFA) beobachtet. Untersuchungen an einer Pilotanlage, bei der die Ozonung unter realen Bedingungen mit dem Ablauf einer konventionellen Kläranlage durchgeführt wurde, bestätigte die Ergebnisse der Laboruntersuchungen: STG wurde auch bei einer hohen Ozondosis nicht vollständig entfernt und die Nitro-Verbindung erwies sich als Haupt-TP, das weder bei weiterer Ozonung noch in einer nachgeschalteten biologischen Behandlung abgebaut wurde. Es ist daher davon auszugehen, dass unter realen Bedingungen sowohl eine Restkonzentration an STG als auch das Haupt-TP sowie weitere TPs wie TFA im Ablauf einer Kläranlage bestehend aus konventioneller biologischer Aufreinigung, Ozonung und nachgeschalteter biologischer Aufreinigung auffindbar sind.
Identifizierung und Quantifizierung von Mikroplastik mittels quantitativer ¹H-NMR Spektroskopie
(2021)
Plastik und damit einhergehend auch Mikroplastik (MP) ist mittlerweile global präsent und stellt ein zunehmend signifikantes Problem für die Umwelt dar. Um die Verbreitung und Aus¬wirkung von MP im Ansatz zu verstehen, ist es wichtig, MP über einen weitreichenden Größenbereich zu identifizieren und zu quantifizieren sowie eine Vergleichbarkeit von Studien zu gewährleisten. Jedoch besteht noch großer Forschungsbedarf auf dem Gebiet der größenunabhängigen, quantitativen Analyse von MP in Umweltproben, besonders im Hinblick auf die massenbasierte MP-Konzentrationsangabe. Daher wird in dieser Dissertation die quantitative ¹H-NMR Spektroskopie (qNMR) als eine alternative Methode für die MP-Analyse etabliert. Bei der qNMR-Methode handelt es sich um eine schnelle, größenunabhängige, massenbasierte Methode, welche als alternative MP-Analytik angewendet werden kann und Potential zur Routineanalytik aufweist. Am Beispiel von LDPE, PET und PS erfolgte der Konzeptnachweis (Kapitel 2). Zusätzlich wurden PVC, PA und ABS Partikel getestet, um die wichtigsten Polymertypen für die MP-Analyse abzudecken (Kapitel 3). Am Beispiel von PET, PVC und PS wurde überprüft, ob die qNMR-Methode auch auf die kosteneffektivere NoD-Methode übertragbar ist (Kapitel 4). Die Ergebnisse der Validierung beider Methoden (1D und NoD) zeigen, dass die Quantifizierung von MP-Partikeln mittels qNMR nicht nur prinzipiell möglich ist, sondern auch eine hohe Richtigkeit (88.0 - 110 %) aufweist und die Nachweisgrenzen (1 - 84 µg) im umweltrelevanten Bereich liegen. Weiterhin wurde überprüft, ob sich nicht nur Hochfeld-Geräte für die MP-Analyse eignen, sondern auch niedrigauflösende Benchtop-Geräte, welche in Anschaffung und Unterhalt wesentlich kosteneffektiver sind. Durch Erhöhung der Messzeit von auf ca. 30 min für PET und PS und auf ca. 140 min für PVC konnte die geringere Messfrequenz ausgeglichen werden (Kapitel 4). Um die Frage möglicher Matrixeffekte von Umweltproben zu behandeln, wurden darüber hinaus eben solche Matrixeffekte sowie Wiederfindungsraten von PET-Fasern bei Anwendung einer speziell für die qNMR-Methode optimierten Probenvorbereitung in Gegenwart von Modellmatrices bestimmt (Kapitel 5). Es konnte gezeigt werden, dass die Umweltmatrices die quantitative Analyse nicht stören und die speziell für die qNMR Analytik entwickelte Probenvorbereitung, mit Wiederfindungsraten von > 80% für die unterschiedlichen Umweltmatrices, angewendet werden kann (Kapitel 5). Über erste orientierende Untersuchungen zur simultanen Bestimmung mehrerer Polymerarten in einer Probe wird abschließend berichtet (Kapitel 6).
Außerschulische Lernorte und deren Wirksamkeit im Kontext von BNE-Bildungsmaßnahmen wurden bislang wenig untersucht. Mithilfe einer mehrstufi-gen Analyse identifiziert die vorliegende Studie außerschulische Lernorte mit Be-zug zum BNE-Bildungskonzept im Untersuchungsraum Rheinland-Pfalz. Dazu wurden zunächst mittels qualitativer Literaturanalysen BNE-Kriterien generiert, die als methodisches Instrument in Form einer BNE-Checkliste für außerschulische Lernorte operationalisiert wurden. Die auf diesem Wege gewonnenen Daten liefern die Grundlage für die Erstellung einer geografisch orientierten Lernortdatenbank mit BNE-Bezug. Eine kartografische Visualisierung der Daten ergibt ein räumliches Verteilungsmuster: So zeigen sich mit BNE-Lernorten gut versorgte Landkreise und kreisfreie Städte, aber auch regelrechte BNE-Lernort-Wüsten, an denen Nachhol-bedarf besteht. Des Weiteren zeigt sich eine Häufung von BNE-Lernorten in wald-nahen Gebieten.
Zur Frage, wie die außerschulische BNE im Bundesland Rheinland-Pfalz imple-mentiert wurde, inwiefern Optimierungsbedarf besteht und welche fortsetzenden Maßnahmen im Rahmen der Agenda 2030 für die außerschulische BNE getroffen werden, liefert ein leitfadenbasiertes exploratives Interview mit zwei BNE-Experten zusätzliche Erkenntnisse.
Weiterführend wurde mit 1358 Schülerinnen und Schülern an 30 außerschuli-schen Lernorten nach Teilnahme an einer Bildungsmaßnahme eine quantitative Fragebogenstudie durchgeführt, bei der auch das Umweltbewusstsein, Einstellun-gen zum Umweltverhalten und das Lernen vor Ort betrachtet wurden. Durch ein Miteinbeziehen von Nicht-BNE-Lernorten wurde eine Vergleichsstudie zur Wirk-samkeit von BNE-Lernorten möglich. Die statistische Datenauswertung führt zu ei-ner Vielzahl an interessanten Ergebnissen. Kontraintuitiv zeigt sich beispielsweise die Art des Lernorts (BNE- oder Nicht-BNE-Lernort) als nicht signifikanter Prädiktor für das Umweltbewusstsein und Umweltverhalten der befragten Schüler, wohinge-gen Kommunikationsstrukturen innerhalb von Bildungsmaßnahmen an außerschu-lischen Lernorten, die Multimedialität und Handlungsorientierung sowie die Dauer von Bildungsmaßnahmen einen signifikanten Einfluss ausüben.
Schlüsselwörter: Außerschulische Lernorte, Bildung für nachhaltige Entwicklung (BNE), BNE-Kriterien, Lernortlandschaft Rheinland-Pfalz, BNE-Lernorte, Umwelt-bewusstsein, Umweltverhalten.
Successful export sectors in manufacturing and agribusiness are important drivers of structural transformation in Sub-Sahara African countries. Backed by industrial policies and active state involvement, a small number of successful productive export sectors has emerged in Sub-Saharan Africa. This thesis asks the question: How do politics shape the promotion of export-driven industrialisation and firm-level upgrading in Sub-Saharan Africa? It exemplifies this question with an in-depth, qualitative study of the cashew processing industry in Mozambique in the period from 1991 until 2019. Mozambique used to be one of the world’s largest producers and processors of cashew nuts in the 1960s and 1970s. At the end of the 20th century, the cashew processing industry broke down completely but has re-emerged as one of the country’s few successful agro-processing exports.
The thesis draws on theoretical approaches from the fields of political science, notably the political settlements framework, global value chain analysis and the research on technological capabilities to explore why the Mozambican Government supported the cashew processing industry and how Mozambican cashew processors acquired the technological capabilities needed to access the global cashew value chain and to upgrade. It makes an important theoretical contribution by linking the political settlements framework and the literature on upgrading in global value chains to study how politics shaped productive sector promotion and upgrading in the Mozambican cashew processing industry. The findings of the thesis are based on extensive primary data, including 58 expert interviews and 10 firm surveys, that was collected in Mozambique in 2018 as well as a broad base of secondary literature.
The thesis argues that the Mozambican Government supported the cashew processing industry because it became important for the Government’s political survival. Promoting the cashew sector formed part of an electoral strategy for the ruling FRELIMO coalition and a means to keep FRELIMO factions united by offering economic opportunities to key constituencies. In 1999, it adopted a protectionist cashew law that created strong incentives for cashew processing in Mozambique. This not only facilitated the re-emergence of the cashew processing industry after its breakdown. The law and the active involvement of the National Cashew Institute (INCAJU) also affected the governance of the local cashew value chain, the creation of backward linkages, and the upgrading paths of cashew processors. The findings of the thesis suggest that the cashew law reduced the pressure on the cashew processing industry to upgrade. The law further created opportunities for formal and informal rent creation for members of the political elite and lower level FRELIMO officials that prevented a far-reaching reform of the law. The thesis shows that international buyers do not promote upgrading among Sub-Sahara African firms in global value chains with market-based or modular governance. Moreover, firms that operate in countries where industrial policies are not enforced effectively cannot draw on the support of government institutions to enhance their capabilities and to upgrade. Firms therefore mainly depended on costly learning channels at firm level, e.g. learning by doing or hiring skilled labour, and/or on technical assistance from donors to build the technological capabilities needed to access global value chains and to remain competitive.
The findings of the thesis suggest that researchers, governments, development practitioners and consultants need to rethink their understanding of upgrading in GVCs in four ways. First, they need to move away from understanding upgrading in terms of moving towards more complex, higher value-added activities in GVCs (functional upgrading). Instead, it is important to consider the potential of other, more realistic types of upgrading for firms in low-income countries, such reducing risks by diversifying suppliers and buyers or increasing rewards by making production processes more efficient. Second, they need to replace an overly positive view on upgrading that neglects possible side-effects at sector and/or country level. Third, GVC participation on its own does not promote upgrading among local supplier firms in Sub-Saharan Africa. The interests of lead firms and Sub-Sahara African supplier firms may not be aligned or even conflicting. Targeted industrial policies and the creation of institutions that effectively promote capability building among firms therefore become even more important. Finally, upgrading needs to be understood as a process that is not only shaped by interactions between firms, but also by local domestic politics.
The findings of the thesis are highly relevant for scholars from the fields of political science, development studies, and economics. Its practical implications and tools, e.g. a technological capabilities matrix for the cashew industry, are of interest for development practitioners, members of public institutions in Sub-Sahara African countries, local entrepreneurs, and representatives of local business associations that are involved in promoting export sectors and upgrading among local firms.
Water is used in a way as if it were available infinitely. Droughts, increased rainfall or flooding already lead to water shortages and, thus, deprive entire population groups of the basis of their livelihoods. There is a growing fear that conflicts over water will increase, especially in arid climate zones, because life without water - whether for humans, animals or plants - is not possible.
More than 60 % of the African population depend on land and water resources for their livelihoods through pastoralism, fishing and farming. The water levels of rivers and lakes are decreasing. Hence, the rural population which is dependent on land and water move towards water-rich and humid areas. This internal migration increases the pressure on available water resources. Driven by the desire to strengthen the economic development, African governments align their political agendas with the promotion of macro international and national economic projects.
This doctoral thesis examines the complex interrelationships between water shortages, governance, vulnerability, adaptive capacity and violent and non-violent conflicts at Lake Naivasha in Kenya and Lake Wamala in Uganda. In order to satisfy the overall complexity, this doctoral thesis combines various theoretical and empirical aspects in which a variety of methods are applied to different geographical regions, across disciplines, and cultural and political boundaries.
The investigation reveals that Lake Naivasha is more affected by violent conflicts than Lake Wamala. Reasons for this include population growth, historically grown ethnic conflicts, corruption and the preferential treatment of national and international economic actors. The most common conflict response tools are raiding and the blockage of water access. However, deathly encounters, destruction of property and cattle slaughtering are increasingly used to gain access to water and land.
The insufficient implementation of the political system and the governments’ prioritization to foster economic development results, on the one hand, in the commercialization of water resources and increases, on the other hand, non-violent conflict between national and sub-national political actors. While corruption, economic favours and patronage defuse this conflict, resource access becomes more difficult for the local population. Resulting thereof, a final hypothesis is developed which states that the localization of the political conflict aggravates the water situation for the local population and, thereby, favours violent conflicts over water access and water use in water-rich areas.
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
Rivers play an important role in the global water cycle, support biodiversity and ecological integrity. However, river flow and thermal regimes are heavily altered in dammed rivers. These impacts are being exacerbated and become more apparent in rivers fragmented by multiple dams. Recent studies mainly focused on evaluating the cumulative impact of cascade reservoirs on flow or thermal regimes, but the role of upstream reservoirs in shaping the hydrology and hydrodynamics of downstream reservoirs remains poorly understood. To improve the understanding of the hydrodynamics in cascade reservoirs, long-term observational data are used in combination with numerical modeling to investigate the changes in flow and thermal regime in three cascade reservoirs at the upper reach of the Yangtze River. The three studied reservoirs are Xiluodu (XLD), Xiangjiaba (XJB) and Three Gorges Reservoir (TGR). In addition, the effects of single reservoir operation (at seasonal/daily time scale) on hydrodynamics are examined in a large tributary of TGR. The results show that the inflow of TGR has been substantially altered by the two upstream reservoirs with a higher discharge in spring and winter and a reduced peak flow in summer. XJB had no obvious contribution to the variations in inflow of TGR. The seasonal water temperature of TGR was also widely affected by the upstream two reservoirs, i.e., an increase in winter and decrease in spring, associated with a delay in water temperature rise and fall. These effects will probably be intensified in the coming years due to the construction of new reservoirs. The study also underlines the importance of reservoir operation in shaping the hydrodynamics of TGR. The seasonal dynamics of density currents in a tributary bay of TGR are closely related to seasonal reservoir operations. In addition, high-frequency water level fluctuations and flow velocity variations were observed in response to periodic tributary bay oscillations, which are driven by the diurnal discharge variations caused by the operation of TGR. As another consequence of operation of cascade reservoirs, the changes in TGR inflow weakened spring thermal stratification and caused warming in spring, autumn and winter. In response to this change, the intrusions from TGR occurred more frequently as overflow and earlier in spring, which caused a sharp reduction in biomass and frequency of phytoplankton blooms in tributary bays of TGR. This study suggests that high-frequency bay oscillations can potentially be used as an efficient management strategy for controlling algal blooms, which can be included in future multi-objective ecological conservation strategies.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Echzeitbetriebssysteme für Systeme mit gemischten Kritikalitäten müssen unterschiedliche Arten von Software, wie z.B. Echtzeitanwendungen und Allzweckanwendungen, gleichzeitig unterstützen. Dabei müssen sie eine solide räumliche und zeitliche Isolation zwischen unabhängigen Softwarekomponenten bieten. Daher fokussieren sich aktuelle Echtzeitbetriebssysteme hauptsächlich auf Vorhersagbarkeit und ein berechenbares Worst-Case-Verhalten.
Allerdings bieten Allzweck-Betriebssysteme wie Linux häufig effizientere, aber weniger deterministische Mechanismen, welche die durchschnittliche Ausführungszeit signifikant erhöhen. Diese Thesis befasst sich mit der Kombination der beiden gegensätzlichen Anforderungen und zeigt Mechanismen zur Thread-Synchronisation mit einem effizienten Durchschnittsverhalten, ohne jedoch die Vorhersagbarkeit und das Worst-Case-Verhalten zu beeinträchtigen. Diese Thesis untersucht und bewertet den Entwurfsraum von Abkürzungen (engl. fast paths) bei der Umsetzung von typischen blockierenden Synchronisationsmechanismen wie Mutexen, Bedingungsvariablen, Zähl-Semaphoren, Barrieren oder Nachrichtenwarteschlangen. Der Ansatz ist dabei, unnötige Systemaufrufe zu vermeiden. Systemaufrufe haben im Vergleich zu anderen Prozessoroperationen, die im Benutzermodus verfügbar sind, wie z.B. atomaren Operationen, höhere Kosten. Insbesondere erforscht die Thesis Futexe, ein aktuelles Design für blockierende Synchronisationsmechanismen in Linux, welches den konkurrenzfreien Fall der Synchronisierung mithilfe atomarer Operationen im Benutzermodus löst und den Kern nur aufruft, um Threads zu suspendieren und aufzuwecken. Die Thesis untersucht auch nicht-unterbrechbare Monitore mit aktivem Warten. Dort wird ein effizienter Mechanismus mit Prioritätsschranken verwendet, um das sogenannte Lock-Holder-Preemption-Problem ohne Systemaufrufe zu vermeiden. Ebenfalls werden passende niedere Kernprimitive beschrieben, die effiziente Warte- und Benachrichtigungsoperationen ermöglichen. Die Evaluation zeigt, dass die vorgestellten Ansätze die durchschnittliche Leistung vergleichbar zu aktuellen Ansätzen in Linux verbessern. Gleichzeitig zeigt eine Analyse des Worst-Case Zeitverhaltens, dass die Ansätze nur konstante oder begrenzte zeitliche Mehraufwände auf der Ebene des Betriebssystemkerns benötigen. Die Nutzung dieser Abkürzungen ist ein lohnender Ansatz für den Entwurf von Systemen, die nicht nur Echtzeitanforderungen erfüllen, sondern auch Allzweckanwendungen gut unterstützen sollen.
Although most plastic pollution originates on land, current research largely remains focused on aquatic ecosystems. Studies pioneering terrestrial microplastic research have adapted analytical methods from aquatic research without acknowledging the complex nature of soil. Meanwhile, novel methods have been developed and further refined. However, methodical inconsistencies still challenge a comprehensive understanding of microplastic occurrence and fate in and on soil. This review aims to disentangle the variety of state-of-the-art sample preparation techniques for heterogeneous solid matrices to identify and discuss best-practice methods for soil-focused microplastic analyses. We show that soil sampling, homogenization, and aggregate dispersion are often neglected or incompletely documented. Microplastic preconcentration is typically performed by separating inorganic soil constituents with high-density salt solutions. Not yet standardized but currently most used separation setups involve overflowing beakers to retrieve supernatant plastics, although closed-design separation funnels probably reduce the risk of contamination. Fenton reagent may be particularly useful to digest soil organic matter if suspected to interfere with subsequent microplastic quantification. A promising new approach is extraction of target polymers with organic solvents. However, insufficiently characterized soils still impede an informed decision on optimal sample preparation. Further research and method development thus requires thorough validation and quality control with well-characterized matrices to enable robust routine analyses for terrestrial microplastics.
Schizophrenia is a chronic mental health disorder, which changes rapidly the life of the persons and their families, who suffer from it. It causes high biological and psychological vulnerability as well as cognitive, emotional and behavioral disorders. Nowadays, evidence-based pharmacotherapy and psychotherapy are available aiming the rehabilitation and recovery of individuals with schizophrenia. A democratic society is obliged to give these people the opportunity to have an access to those treatments.
The following three published studies present this dissertation thesis and have a common focus on the implementation of evidence-based psychotherapy in individuals with schizophrenia.
The first study evaluates the efficacy of the Integrated Psychological Therapy (IPT) in Greece, one of the most evaluated rehabilitation programs. IPT was compared to
Treatment as Usual (TAU) in a randomized controlled trial (RCT) with 48 individuals with schizophrenia. Significant effects favouring IPT were found in working memory,
in social perception, in negative symptoms, in general psychopathology and in insight. This study supports evidence for the efficacy of IPT in Greece.
The second study evaluates a second hypothesis, when IPT is more and less effective regarding treatment resistant schizophrenia (TRS) and non treatment resistant
schizophrenia (NTRS). It is a part of the first paper. Significant effects favouring NTRS were found for verbal memory, for symptoms, for functioning and quality of
life. Effect sizes showed superiority of NTRS in comparison to TRS. IPTTRS showed on the other side some significant improvements. This study presents the initial findings of a larger study to be conducted internationally for the first time.
The third study is a systematic review, which aims to evaluate the efficacy of Cognitive Behavioral Therapy (CBT), of Meta Cognitive Therapy (MCT), Metacognitive Training (MCTR), Metacognitive Reflection and Insight Therapy
(MERIT), of various Rehabilitation Programs and Recovery Programs in individuals with schizophrenia. 41 RCTs and 12 Case Studies were included. The above interventions are efficacious in the improvement of cognitions, symptoms, functional outcome, insight, self-esteem, comorbid disorders and metacognitive capacity.
The three studies provide insight regarding the importance of evidence-based psychotherapy in persons with schizophrenia leading to recovery and reintegration into
society. Future RCTs with larger samples and long-term follow up, combining evidence-based psychotherapies for individuals with schizophrenia need to be done.
Internationale Bildungsstudien (TIMSS und PISA) offenbarten, dass es deutschen Schülern nur begrenzt gelingt, ihr erworbenes Wissen im Physikunterricht zur Problemlösung in neuen Kontexten zu nutzen. Als Grund nennen die Studien die gering ausgeprägte Kompetenz-erwartung in Bezug zum Fach Physik. Die Folge ist eine geringe Motivation der Lernenden, physikalische Aufgaben zu lösen. Studien zeigen aber auch, dass die Motivation beim Lernen durch den Einsatz digitaler Lernmedien gesteigert werden konnte. Aus diesem Grund wird in dieser Arbeit untersucht, ob das Vertrauen in die eigenen Fähigkeiten durch das Lernen in einer integrierten Lernumgebung gefördert werden kann. Im Rahmen eines Design-Based-Research-Forschungsansatzes (DBR) wurde eine integrierte Lernumgebung „Wärmelehre“ mit digitalen Lernmedien für den Physikunterricht gestaltet, die dann in zwei Schulformen (IGS und Gymnasium) innerhalb einer quasi-experimentellen Feldstudie erprobt wurde. Im 1. Zyklus des DBR wurden die Wirkungen des selbstständigen Lernens mit digitalen/analogen Medien in Einzelarbeit untersucht. Die Ergebnisse der Wissenstests zeigen einen höheren Lernerfolg bei den Lernenden der Experimentalgruppen, der sich aber nicht signifikant von den Lernenden der Kontrollgruppen (analoge Medien) unterscheidet. Die Lernenden konnten sich in der integrierten Lernumgebung mit Unterstützung beider Medienformate selbstständig Fachwissen aneignen und problembasierte Textaufgaben lösen. Die Ergebnisse der Befragungen der Lernenden zeigen, dass sich die Lerngruppen signifikant in ihrem erlebten Grad der Selbststeuerung unterscheiden. Die Lernenden beider Experimentalgruppen bewerten ihren Handlungsspielraum besser als die Lernenden der beiden Kontrollgruppen. Ebenfalls konnte festgestellt werden, dass sich die individuellen Lernvoraussetzungen, der Lernstiltyp, das Kompetenzerleben und die Aspekte der Medien-gestaltung wechselseitig beeinflussen und auf den Lernerfolg wirken. Die Ergebnisse der Lernstilanalyse zeigen, dass sich selbst kleine Lerngruppen heterogen zusammensetzen. Demnach scheint es für einen guten Lernerfolg notwendig zu sein, dass die Lehrenden, die Lernumgebung an die individuellen Lernpräferenzen der Lernenden der Lerngruppe anpassen. Aus den Ergebnissen lässt sich als Konsequenz für den Physikunterricht ableiten, dass Selbstlernphasen mit digitalen Lernmedien regelmäßig in den Unterricht integriert werden sollten, um die Problemlöse- und die Selbststeuerungskompetenz zu fördern. Es ist von Vorteil, wenn die Lehrenden für die Gestaltung einer Lernumgebung, das Vorwissen, die individuellen Lernvoraussetzungen und die Zusammensetzung der Lerngruppe (Lernstiltyp) als Qualitätsdimensionen erfassen. Im Re-Design werden Vorschläge unterbreitet, wie die integrierte Lernumgebung lernstilgerecht weiterentwickelt werden kann. Im 2. Zyklus soll dann erforscht werden, ob sich Unterschiede im Lernerfolg und in den untersuchten Aspekten zeigen, wenn die Lernenden in Einzelarbeit, in Partnerarbeit oder in ihrer Lernstilgruppe selbstgesteuert lernen, um die Lernumgebung zyklisch weiterzuentwickeln.
This thesis examined two specific cases of point and diffuse pollution, pesticides and salinisation, which are two of the most concerning stressors of Germany’s freshwater bodies. The findings of this thesis were organized into three major components, of which the first component presents the contribution of WWTPs to pesticide toxicity (Chapter 2). The second component focuses on the current and future background salt ion concentrations under climate change with the absence of anthropogenic activities (Chapter 3). Finally, the third major component shows the response of invertebrate communities in terms of species turnover to levels of salinity change, considered as a proxy for human-driven salinisation (Chapter 4).
Obwohl Kinder beim Bauen mit Bauklötzen bereits früh Erfahrungen mit Aspekten der Stabilität von Bauwerken, wie z. B. Kräfteverteilung, Standfestigkeit sowie Gleich- und Gegengewicht, sammeln und es verschiedene Studien gibt, die den fächerübergreifenden Lerngehalt von Bauklötzen hervorheben, ist das Verständnis bezüglich der Stabilität von Bauklotzanordnungen bisher kaum erforscht. Daher wurde untersucht, welche Vorstellungen sechs- bis siebenjährige Kinder zur Stabilität von Bauklotzanordnungen zeigen und welche Unterstützungsmaßnahmen eine Vorstellungsveränderung anregen. In Studie 1 und 2 zeigt sich, dass Kinder in der Schuleingangsphase erste Vorstellungen zur Stabilität von Bauklotzanordnungen haben. Über verschiedene Analysen wurden schwierigkeitsbestimmende Merkmale bzw. lösungsrelevante Dimensionen identifiziert. Kinder mit ca. fünf Jahren orientieren sich eher an der geometrischen Mitte und beziehen somit die Abstandsdimension ein, bei Neunjährigen berücksichtigen hingegen knapp über die Hälfte bereits den Massenmittelpunkt. Folglich reicht die „Bauerfahrung“ von Kindern bis zum neunten Lebensjahr nicht aus, um die Fähigkeit, Bauklotzanordnungen bezüglich ihrer Stabilität zu beurteilen, vollständig zu entwickeln. Deshalb wurde in Studie 3 untersucht, inwieweit sich eine Vorstellungsveränderung zur Stabilität von Bauklotzanordnungen mithilfe verschiedener Unterstützungsmaßnahmen innerhalb einer kurzen Lerneinheit anregen lässt. Dabei wurden verschiedene materiale und verbale Unterstützungsmaßnahmen in Form von Fotos und gezielten sprachlichen Instruktionen in einem systematischen Vergleich gegenübergestellt. Die Ergebnisse weisen nach, dass bereits mit einer kurzen Lerneinheit ein Wissenszuwachs bei Siebenjährigen angeregt werden kann, insbesondere wenn sie durch Fotos und gezielte sprachliche Instruktionen unterstützt werden. Die Ergebnisse sind ein erster Schritt für die Entwicklung eines naturwissenschaftlichen Unterrichts zur Stabilität von Bauklotzanordnungen.
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
Perfluorcarbonsäuren (PFCA) sind Substanzen anthropogenen Ursprungs und werden seit mehreren Jahrzehnten verwendet. In der Literatur werden diese Verbindungen als eine neue Klasse von Umweltschadstoffen beschrieben. Ihre hohe thermische Stabilität, Oberflächenaktivität, Amphipathizität und schwache intermolekulare Wechselwirkungen führen zur Persistenz dieser organisch-chemischen Verbindungen und zur Bioakkumulation. Um diese Stoffgruppe sicher nachzuweisen, müssen zuverlässige analytische Methoden eingesetzt werden. GC-MS stellt eine kostengünstige Alternative und Ergänzung zu etablierten LC-MS/MS Methoden dar. Um jedoch die GC-MS erfolgreich einsetzen zu können, müssen die PFCA derivatisiert werden. Viele der bisher veröffentlichten Derivatisierungsreaktionen für PFCA, sind zeitaufwändig und erfordern hohe Reaktionstemperaturen und/oder toxische Reagenzien.
In der vorliegenden Dissertation wurden zwei neue Derivatisierungsreaktionen methodologisch entwickelt und optimiert. Der erste Teil der Arbeit beschreibt die Entwicklung und Optimierung der Derivatisierung mit Triethylsilanol in Wasser. Zusätzlich zur Reaktionsoptimierung, wurde die klassische Festphasenextraktion modifiziert, um die Probenvorbereitung zu vereinfachen.
Im zweiten Teil der Arbeit, wurden die Reaktionsprodukte von Perfluoroktansäure (PFOA) mit Dimethylformamid-dimethylacetal (DMF-DMA) und –diethylacetal (DMF-DEA) identifiziert. Zu diesem Zweck, wurden verschiedene massenspektrometrische Techniken angewandt. Anhand der Messergebnisse konnte gezeigt werden, dass sowohl DMF-DMA als auch DMF-DEA in Gegenwart von PFOA ein Iminium-Kation bildet, was zur Salzbildung führt. Dieses PFOA-Salz reagiert im GC-Injektor weiter zu einem entsprechenden Amin.
Abschließend, im letzten Teil der Arbeit, wurden reale Proben mit der neu entwickelten Methode auf Basis der DMF-DMA Reaktion analysiert. Die Matrixeffekte wurden ausführlich beschrieben. Die Methode wurde erfolgreich für drei Arten von Proben verwendet: Zahnseide, Textilien und Klärschlamm. Die Ergebnisse wurden mittels LC-MS/MS in einem externen Labor verifiziert. Die Unterschiede zwischen den PFCA-Werten, für eine aufgestockte Probe, wurden mittels GC-MS und LC-MS/MS gemessen und waren kleiner als 10 %.