Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (273)
- Diplomarbeit (196)
- Masterarbeit (187)
- Studienarbeit (137)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1136)
- Englisch (544)
- Mehrsprachig (4)
- Spanisch (2)
Volltext vorhanden
- ja (1686) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (145)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Previous research revealed that teachers hold beliefs about gifted students combining high intellectual ability with deficits in non-cognitive domains, outlined in the so-called disharmony hypothesis. Since teachers’ beliefs about giftedness can influence which students they identify as gifted, the empirical investigation of beliefs is of great practical relevance. This dissertation comprises three research articles that investigated teacher beliefs about gifted students’ characteristics in samples of pre-service teachers using an experimental vignette approach. Chapter I starts with a general introduction into beliefs, and presents the research aims of the present dissertation. The first article (Chapter II) focused on the interaction of beliefs about giftedness and gender in a sample of Australian pre-service teachers and tested if social desirability occurred when using the vignette design. Beside evidence for beliefs in line with the disharmony hypothesis, results revealed typical gender stereotypes. However, beliefs about giftedness appeared not to be gender specific and thus, to be similar for gifted girls and boys. The vignette approach was found to be an adequate design for assessing teacher beliefs. The second article (Chapter III) investigated teacher beliefs and their relationship to motivational orientations for teaching gifted students in a cross-country sample of German and Australian pre-service teachers. Motivational orientations comprise cognitive components (self-efficacy) and affective components (enthusiasm). Findings revealed beliefs in the sense of the disharmony hypothesis for pre-service teachers from both countries. Giftedness when paired with beliefs about high maladjustment was found to be negatively related to teachers’ self-efficacy for teaching gifted students. The third article (Chapter IV) examined the role of teachers’ belief in a just world for the formation of beliefs using a sample of Belgian pre-service teachers. It was found that the stronger pre-service teachers’ belief in a just world was, the more they perceived gifted students’ high intellectual ability as unfair and thus, neutralized that injustice by de-evaluating students’ non-cognitive abilities. In a general discussion (Chapter V), findings of the three articles are combined and reflected. Taken together, the present dissertation showed that teacher beliefs about gifted students’ characteristics are not gender specific, generalizable over countries, negatively related to teacher motivation and can be driven by fairness beliefs.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
In dieser Forschungsarbeit werden Kriterien und Anforderungen für eine erfolgreiche Kollaborationsplattform zur Verbesserung der Kommunikation zwischen weltweit ver-teilten wissenschaftlichen Instituten der Eisenbahnbranche erarbeitet und bewertet. Hierzu wird zunächst eine Einführung in Kollaborationsplattformen und deren aktuelle Marktsituation und /-trends gegeben. Das daraus resultierende Wissen wird für eine qualitative Inhaltsanalyse in Form von Interviews mit der Zielgruppe der geplante Kol-laborationsplattform genutzt. Aufbauend auf dem Grundlagenwissen und der durchge-führten Interviews werden anschließend Hypothesen zur Kommunikation in wissen-schaftlichen Instituten gebildet. Diese Hypothesen dienen der Erstellung eines Frage-bogens für eine quantitative Befragung der Zielgruppe. Die folgende Analyse von allgemeinen Kollaborationsplattformen und solchen der Eisenbahnbranche gibt weitere Erkenntnisse und beschreibt Anforderungen für eine erfolgreiche Konzeption einer Kollaborationsplattform.
Eine anschließend geplante Konzeption dieser Plattform kann im Rahmen dieser Forschungsarbeit aufgrund fehlender aussagekräftiger Ergebnisse und Informationen nicht durchgeführt werden. Die geplante quantitative Inhaltsanalyse ist für den gewählten Rahmen zu aufwendig gewesen. In dieser Forschungsarbeit wird die quantitative Befragung für folgende Forschungsarbeiten in diesem Themenfeld vorbereitet. Weitere Arbeitsergebnisse werden für folgende Forschungsarbeiten ausgewertet und bereitgestellt.
Invasive species often have a significant impact on the biodiversity of ecosystems and the species native to it. One of the worst invaders worldwide is Aphanomyces astaci, the causative agent of the crayfish plague, an often fatal disease to crayfish species not native to North America. Aphanomyces astaci originates from North America and was introduced to Europe in the midst of the 19th century. Since then, it spread throughout Europe diminishing the European crayfish populations. The overall aim of this thesis was to evaluate the threat that A. astaci still poses to European crayfish species more than 150 years after its introduction to Europe. In the first part of the thesis, crayfish specimens, which are available in the German pet trade, were tested for infections with A. astaci. Around 13% of the tested crayfish were clearly infected with A. astaci. The study demonstrated the potential danger the pet trade poses for biodiversity through the import of alien species and their potential pathogens, in general. In the second part of the thesis, the A. astaci infection prevalence of crayfish species in wild populations in Europe was tested. While the stone crayfish, Austropotamobius torrentium, showed high susceptibility to different haplogroups of A. astaci, the narrow-clawed crayfish, Astacus leptodactylus, was able to survive infections, even by haplogroup B, which is considered to be highly virulent. In the last part of the thesis, A. astaci was traced back to its original distribution area of North America. While the crayfish plague never had such a devastating effect on crayfish in North America as it had in Europe, the reasons for the success of invasive crayfish within North America are not yet fully understood. It is possible that A. astaci increases the invasion success of some crayfish species. Several populations of the rusty crayfish, Orconectes rusticus, in the Midwest of North America were confirmed to be infected with A. astaci and a new genotype was identified, possibly indicating that each crayfish host is vector of a unique A. astaci genotype, even in North America. Overall, the present thesis provides evidence that A. astaci is still a major threat to the crayfish species indigenous to Europe. Crayfish mass mortalities still occur in susceptible crayfish species like A. torrentium even 150 years after the first introduction of A. astaci. While there are some indications for increased resistances through processes of co-evolution, the continuous introduction of crayfish species to Europe threatens to cause new outbreaks of the crayfish plague through the parallel introduction of new, highly virulent A. astaci strains.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
Unterschiedliche Quellen (Print-Medien, Fernsehberichte u. Ä.) berichten immer wieder davon, dass es mit der Datenschutzkompetenz bei Kindern und Jugendlichen schlecht bestellt ist. Daher ist dem Thema Datenschutz im Informatikunterricht eine besondere Bedeutung zuzuschreiben.
Im Rahmen der Dissertation von Herrn Hug wird ein Datenschutzkompetenzmodell [Quelle INFOS17] entwickelt, anhand dessen die Datenschutzkompetenz von Schülerinnen und Schülern im Altern von 10 bis 13 Jahren gemessen werden kann.
Im Rahmen dieser Masterarbeit werden existierende Unterrichtsmaterialien zum Thema Datenschutz gesammelt und dazu eine Unterrichtsreihe entwickelt. Hierbei werden auch eigene Zugänge aufzeigt, um ein kohärentes und abgeschlossenes Projekt zu entwerfen, bei dem aktuelle Gefahren für Schülerinnen und Schüler aufgezeigt werden. Ziel ist es, dass die Schülerinnen und Schüler dazu befähigt werden, ihr Verhalten bezüglich Datenschutz besser einzuschätzen und verantwortungsvoller mit ihren persönlichen Daten umzugehen. Im Rahmen eines Feldversuches in einer 6. Klasse eines Gymnasiums wurde die Unterrichtsreihe erprobt.
Die im Rahmen dieser Masterarbeit durchgeführte Analyse von Ernährungsumstellungen auf die vegane Ernährung in Form von vier Portraits lotet mit ihrer interdisziplinären Perspektive aus Gastrosophie, Ethnologie und Leibphilosophie die soziokulturellen Aspekte dieser Transmissionsprozesse aus. Dazu gehören der zivilisatorisch erlernte Umgang mit Nahrung, das Umsetzen und Reflektieren sinnlicher Wahrnehmungen im Ernährungsprozess und die Prägung von Relationen zwischen Essendem und Zu-Essendem. Geleitet wird die Analyse dabei von der Forschungsfrage: „Welche leiblich sinnlichen Wahrnehmungen geben den Anstoß zu einer Ernährungsumstellung und wie begleiten diese den Prozess der Umstellung?“. Damit gibt die Frage den Fokus auf das (leibliche) Wahrnehmungsvermögen des Menschen vor und begrenzt Ernährung bewusst nicht auf ihre physiologische Funktion der Energiegewinnung. Dadurch flicht sie sich in den Diskurs um den cultural turn in der Ernährungswissenschaft ein und zielt weg von der metabolischen Durchmessung des Essens, hin auf das Verständnis von Ernährung als Praxis des Sich-Einverleibens-von-Anderem – Essen als Vollzug von Beziehungen. Das Sich-Ernähren wird damit als sozial geprägter und leiblich vermittelter Erfahrungsvorgang sichtbar, der über das Geschmackserlebnis hinaus durch Betroffenheitserfahrung konstituiert wird. Durch das Zusammenbringen philosophischer Perspektiven, wie die der Gastrosophie Harald Lemkes, die Essen u. a. auch als Selbstbestimmung denkt, und soziologischen Theorien, wie die des Habitus-Konzepts nach Pierre Bourdieu, wird deutlich, wie die Wahrnehmungspraxis und -fähigkeit des Menschen, in ihrem leiblichsinnlichen Aspekt, die Verhaltensbestimmung im Umgang mit Nahrung und deren Quellen beeinflusst. Die vier Portraits entstanden während einer sechsmonatigen ethnographischen Feldforschung und stellen anonymisiert die Motivation, den Verlauf und das Konfliktthema der jeweiligen Ernährungsumstellung dar. Die Portraits sind sehr individuell und zeigen auf, wie und warum beispielsweise die gesundheitliche Selbstsorge oder das empathische Mitleiden mit Nutztieren Veränderungen oder Tabuisierungen im Ernährungshandeln anstoßen.
Fachdidaktische und pädagogische Kompetenzen angehender Mathematiklehrkräfte für die Realschule
(2019)
Studien zur Wirksamkeit der Ausbildung von Lehrerinnen und Lehrern sind in der Regel fragebogenbasiert. In der vorliegenden Untersuchung wird ein anderer Ansatz gewählt, um die Kompetenzen angehender Mathematiklehrkräfte zu erheben und zu evaluieren. Die Studie untersucht anhand der unterrichtlichen Performanz, welche Kompetenzen Anwärterinnen und Anwärter in ihrer praktischen Ausbildung erworben haben. Der Analyse liegen 137 anonymisierte Niederschriften zu benote-ten Lehrproben von Anwärterinnen und Anwärtern im Fach Mathematik zugrunde. Diese bilden die Ausbildungsjahrgänge von 2004 bis 2011 ab. Die Anwärterinnen und Anwärter werden unterrichtspraktisch anhand der Niederschriften in Anlehnung an eine qualitative Inhaltsanalyse auf ihre Kompetenzausprägungen hin getestet. Dies erfolgt schwerpunktmäßig in den Bereichen Fachdidaktik, Fachmethodik, Classroom-Management und Gesprächsführung. Im Verlauf der Untersuchung wird deutlich, dass die Teilneh-mergruppe vor allem Stärken im methodischen Bereich hat. Hier können durchgehend gute Kompetenzausprägungen festgestellt werden. Über den gesamten Erhebungszeitraum zeigen sich hingegen in den Bereichen Classroom-Management und Gesprächsführung deutliche Defizite. Die fachdidaktischen Kompetenzen der angehenden Lehrkräfte entwickeln sich negativ: Ist zu Beginn der Erhebung noch etwa die Hälfte der Anwärterinnen und Anwärter im Bereich der Fachdidaktik zufriedenstellend einzustufen, gilt das im letzten Erhebungsjahrgang nur noch für knapp ein Fünftel der Probandinnen und Probanden. Es kann gezeigt werden, dass eine gute Notenfestsetzung eng mit den er-forderlichen Kompetenzen in der Fachdidaktik zusammenhängt.
Die vorliegende Studie bestätigt im Bereich der Fachdidaktik die Ergebnisse jener Studien, die auf Fragebögen basieren.
Es konnte zudem ein statistischer Zusammenhang zwischen den fachdidaktischen Fähigkeiten und den Steuerungskompetenzen hergestellt werden.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
Social Network of Business Objects (SoNBO) ist ein Konzept, um im Unternehmen in heterogenen Systemlandschaften verteilte Informationen zu aggregieren und gesammelt auf einer Benutzeroberfläche zur Verfügung zu stellen. Die zentrale Idee ist dabei, die Unternehmensinformationen als Netzwerk (auch: Graph) zu verstehen. Es gibt bereits einen SoNBO-Explorer, der die Informationen eines Customer Relationship Management-Systems (CRM-System) integriert. Die Herausforderung bei der Konfiguration einer solchen Anwendung besteht darin, das Unternehmensnetzwerk zu identifizieren, und auf diese Weise heraus zu finden, wie die gespeicherten Daten im Unternehmen verknüpft sind. Dafür ist ein Tool hilfreich, das das Unternehmensnetzwerk visualisieren kann. In dieser Arbeit wird ein selbstentwickeltes Tool (SoNBO-Graph-App) als Prototyp vorgestellt, das diese Visualisierung ermöglicht. Mit dieser Anwendung kann die Konfiguration des Netzwerks im SoNBO-Explorer bestehend aus den zusammengeführten Daten unterstützt werden, indem diese Konfiguration auf graphischer Ebene durchgeführt wird. Der Prototyp ist an zwei verschiedenen Datenbanken eines Customer Relationship Management (CRM) Systems angebunden und ermöglicht die Aggregation dieser Daten, sodass sie in einer Übersicht zusammenhängend als Graph dargestellt werden. Dadurch erhält der Anwender einen besseren Überblick und ein Verständnis über den Zusammenhang der unterschiedlichen Daten. Diese Arbeit ist Teil des Langzeitforschungsprojekts SoNBO, dessen Ziel ein Konzept zur Integration von Informationen verschiedener geschäftlicher Anwendungssysteme ist.
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Student misbehavior and its treatment is a major challenge for teachers and a threat to their well-being. Indeed, teachers are obliged to punish student misbehavior on a regular basis. Additionally, teachers’ punishment decisions are among the most frequently reported situations when it comes to students’ experiences of injustice in school. By implication, it is crucial to understand teachers’ treatment of student misbehavior vis-à-vis students’ perceptions. One key dimension of punishment behavior reflects its underlying motivation and goals. People generally intend to achieve three goals when punishing misbehavior, namely, retribution (i.e., evening out the harm caused), special prevention (i.e., preventing recidivism of the offender), and general prevention (i.e., preventing imitation of others). Importantly, people’s support of these punishment goals is subject to hierarchy and power, implying that teachers’ and students’ punishment goal preferences differ. In this dissertation, I present three research projects that shed first light on teachers’ punishment and its goals along with the students’ perception of classroom intervention strategies pursuing these goals. More specifically, I first examined students’ (i.e., children’s) general support of each of the three punishment goals sketched above. Furthermore, I applied an attributional approach to understand and study the goals teachers intend to achieve when punishing student misbehavior. Finally, I investigated teachers’ and students’ support of the punishment goals regarding the same student misbehavior to directly compare their views on these goals and reactions pursuing them. In sum, the findings show that students generally prefer retribution and special prevention to general prevention, whereas teachers prefer general prevention and special prevention to retribution. This ultimately translates into a "mismatch" of teachers and students in their preferences for specific punishment goals, and the findings suggest that this may indeed enhance students’ perception of injustice. Overall, the results of the present research program may be valuable for the development of classroom intervention strategies that may reduce rather than enhance conflicts in student-teacher-interactions.
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Our work finds the fine grained edits in context of neighbouring tokens in Wikipedia articles. We cluster those edits according to similar neighbouring context. We encode neighbouring context into vector space using word vectors. We evaluate clusters returned by our algorithm on extrinsic and intrinsic metric and compare it with previous work. We analyse the relation between extrinsic and intrinsic measurements of fine grained edit tokens.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Das „Templerhaus“ in Boppard.
Kunsthistorische Untersuchung eines spätromanischen Baudenkmals
(2019)
Die vorliegende Bachelorarbeit untersucht die Namens-, Besitz- und Nutzungsgeschichte des sogenannten Templerhauses, einem massiven Profanbau der Stauferzeit in Boppard (Rheinland-Pfalz). Nach einer Beschreibung des heutigen Erscheinungsbildes und der Erarbeitung früherer Zustände erfolgt ein stilkritischer Vergleich mit ausgewählten Beispielen der Umgebung, der Rekonstruktionsversuch früherer Bauphasen und eine Einordnung in den städtischen Kontext.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
Im Fokus der Arbeit steht die Frage des Kompetenzzuwachses in und durch außerunterrichtliche Sport- und Bewegungsangebote an rheinland pfälzischen Ganztagsschulen, die von Trainerinnen und Trainern angeboten und durchgeführt werden. Um dieser Fragestellung nachzugehen, wurden zunächst Schul- und Unterrichtsqualitätsmodelle auf das außerunterrichtlichen Sport- und Bewegungsangebot übertragen, um das zu untersuchende Setting im Kontext der rheinland-pfälzischen Ganztagsschullandschaft zu verorten und mögliche Einflussfaktoren und Wechselwirkungen vor dem Hintergrund des Kompetenzzuwachses der Teilnehmerinnen und -nehmer aufzuzeigen. Dem nachgestellt wurden während der Darlegung theoretischer Vorüberlegungen, wie z.B. Aspekte zum außerschulischen Bildungsverständnis und Sport und Bewegung in den Erziehungswissenschaften, Kategorien und Kriterien ermittelt, deren Nachweis den Kompetenzzuwachs der Schülerinnen und Schüler stark vermuten lassen. Die Untersuchungsleitlinie dieser Arbeit wurde ein qualitatives Forschungsdesign eingebunden. Die herangezogene Forschungsstrategie bildet eine vergleichende Fallanalyse. Als Erhebungsmethode dient das Experteninterview; ein problemorientiertes Interview im Übungsleiterinnen und -leitern, die für die Planung und Durchführung der in rheinland-pfälzischen Ganztagsschulen implementierten Sport- und Bewegungsangebote verantwortlich zeichnen. Die Auswertung erfolgte über eine modifizierte Form der qualitativen Inhaltsanalyse. In der Summe konnte aufgezeigt werden, dass es sich bei den untersuchten Sport- und Bewegungsangeboten um hochwertige Settings handelt, in denen Kriterien und hypothetische Annahmen aus den Schul- und Unterrichtsqualitätsmodellen aufgezeigt werden konnten und somit günstige Voraussetzungen –die aktive Teilnahme vorausgesetzt– für den Kompetenzerwerb der Schülerinnen und Schüler an Ganztagsschulen vorliegen.
This paper describes the robots TIAGo and Lisa used by team homer@UniKoblenz of the University of Koblenz-Landau, Germany, for the participation at the RoboCup@Home 2018 in Montreal, Canada. Further this paper serves as qualification material for the RoboCup-@Home participation in 2018. A special focus is put on novel system components and the open source contributions of our team. This year the team from Koblenz won the biggest annual scientianc robot competition in Montreal in the RoboCup@Home Open Platform track for the third time and also won the RoboCup@Home German Open for the second time. As a research highlight a novel symbolic imitation learning approach was demonstrated during the annals. The TIAGo robotic research platform was used for the first time by the team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg. Further information can be found on our project page http://homer.uni-koblenz.de.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.
Technologische Fortschritte auf dem Gebiet der integrierten Halbleitertechnik, die unter anderem auch zur gestiegenen Leistungsfähigkeit der Kamerasensoren beitragen, konzentrierten sich bisher primär auf die Schnelligkeit und das Auflösungsvermögen der Sensoren. Die sich ständig verändernde Entwicklung hat jedoch direkte Folgen auf das physikalische Verhalten einer Kamera und damit auch Konsequenzen für die erreichbare geometrische Genauigkeit einer photogrammetrischen 3D-Rekonstruktion. Letztere stand bisher nicht im Fokus der Forschung und ist eine Aufgabe, der sich diese Arbeit im Sinne der Photogrammetrie und Messtechnik stellt. Aktuelle Untersuchungen und Erfahrungen aus industriellen Projekten zeigen in diesem Zusammenhang, dass das geometrisch-physikalische Verhalten digitaler Kameras - für höchste photogrammetrische Ansprüche - noch nicht ausreichend modelliert ist. Direkte Aussagen zur erreichbaren Genauigkeit bei gegebener Hardware erweisen sich daher bislang als unzureichend. Ferner kommt es aufgrund der unpräzisen Modellierung zu Einbußen in der Zuverlässigkeit der erreichten Ergebnisse. Für den Entwickler präziser kamerabasierter Messverfahren folgt daraus, dass zu einer optimalen Schätzung der geometrischen Genauigkeit und damit auch vollständigen Ausschöpfung der Messkamera geeignete mathematische Modelle erforderlich sind, die das geometrisch physikalische Verhalten bestmöglich beschreiben. Diese Arbeit beschreibt, wie die erreichbare Genauigkeit einer Bündelblockausgleichung, schon a priori mithilfe des EMVA1288 Standards approximiert werden kann. Eine in diesem Zusammenhang wichtige Teilaufgabe ist die Schaffung einer optimalen Messanordnung. Hierzu gehören Untersuchungen der üblicherweise verwendeten Kalibrierkörper und die Beseitigung von systematischen Fehlern vor und nach der Bündelblockausgleichung. Zum Nachweis dieser Systematiken wird eine auf statistischem Lernen basierende Methode beschrieben und untersucht. Erst wenn alle genauigkeitsmindernden Einflüsse berücksichtigt sind, wird der Anteil des Sensors in den Messdaten sichtbar und damit auch mathematisch parametrisierbar. Die Beschreibung des Sensoreinflusses auf die erreichbare Genauigkeit der Bündelblockausgleichung erfolgt in drei Schritten. Der erste Schritt beschreibt den Zusammenhang zwischen ausgewählten EMVA1288-Kennzahlen und der Unsicherheit eines Grauwertes. Der zweite Schritt ist eine Modellierung dieser Grauwertunsicherheit als Zentrumsunsicherheit einer Zielmarke. Zur Beschreibung dieser Unsicherheit innerhalb der Bündelblockausgleichung wird ein stochastisches Modell, basierend auf dem EMVA1288-Standard, vorgeschlagen. Ausgehend vom Rauschen des Zielmarkenmittelpunktes wird im dritten Schritt die Unsicherheit im Objektraum beispielhaft mit Hilfe von physikalisch orientierten Simulationen approximiert. Die Wirkung der vorgeschlagenen Methoden wird anhand von Realkalibrierungen nachgewiesen. Abschließend erfolgt die Diskussion der vorgeschlagenen Methoden und erreichten Ergebnisse sowie ein Ausblick auf kommende Untersuchungen.
Wikipedia is the biggest, free online encyclopaedia that can be expanded by any-one. For the users, who create content on a specific Wikipedia language edition, a social network exists. In this social network users are categorised into different roles. These are normal users, administrators and functional bots. Within the networks, a user can post reviews, suggestions or send simple messages to the "talk page" of another user. Each language in the Wikipedia domain has this type of social network.
In this thesis characteristics of the three different roles are analysed in order to learn how they function in one language network of Wikipedia and apply them to another Wikipedia network to identify bots. Timestamps from created posts are analysed to reveal noticeable characteristics referring to continuous messages, message rates and irregular behaviour of a user are discovered. Through this process we show that there exist differences between the roles for the mentioned characteristics.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
Innovationen prägen die Gesellschaft. Daher ist das Innovationsmanagement eine zentrale Aufgabe in Unternehmen. Erfolgreiche Innovationen können die Effizienz und Effektivität eines Unternehmens steigern, folglich ist das Ziel eines Innovationsmanagements, erfolgreiche Innovationen hervorzubringen. Innerhalb des Managements von Innovationen entstehen Herausforderungen, die auf Innovationsbarrieren zurückzuführen sind. Diese können zum Scheitern von Innovation führen. Um diese Art von Misserfolg zu vermeiden, kann ein Vorgehensmodell zur Identifizierung und zum Umgang mit Innovationsbarrieren einen erfolgsorientierten Innovationsprozess begünstigen.
Die Eisenbahnindustrie ist durch ihre Infrastruktur, ihre politische Abhängigkeit und Sicherheitsanforderungen gekennzeichnet. Sicherheit, als eines der Hauptthemen der Branche ist einerseits durch das Schutz- und Kontrollsystem der Politik geprägt und andererseits gestaltet und beeinflusst durch Forschung und Entwicklung von Unternehmen, Universitäten oder externen Entwicklern. Die Unfallvermeidung ist ein bedeutendes Thema in der Literatur zur Eisenbahnsicherheit, hierbei ist die Instandhaltung eines der Instrumente, die der Vorbeugung dienen. Die Prävention von Unfällen treibt den Bedarf von Innovatio-nen für die Eisenbahnsicherheit an. Dementsprechend ist die Thematik der Innovationsbarrieren auch für die Bahnindustrie von Bedeutung. Der Umgang mit diesen in dem konkreten Zusammenhang der Eisenbahnsicherheit soll anhand eines Vorgehensmodells systematisiert werden. Um das Modell insbesondere auf die Branche und den Schwerpunkt der Sicherheit abzustimmen, wird das Grundgerüst des Modells aus der Literatur erarbeitet und mit den recherchierten Kenntnissen der Branche erweitert. Basierend auf den Kenntnissen über Innovationsbarrieren im Schienenverkehr werden Schnittstellenprobleme als Ursache von den spezifischen Barrieren identifiziert. Dazu gehören beispielsweise die Interoperabilität und technische Harmonisierung zwischen Ländern wie der EU sowie die Zusammenarbeit zwischen Industrie und Wissenschaft oder externen Entwicklern. In dem Bezug zu der Branche konnte für das Modell eine Erweiterung erarbeitet werden. Es wurde herausgearbeitet, dass die Eisenbahnbranche weniger innovationsaktiv ist, als z. B. die Technologiebranche. Dies ist auf einen Mangel an Motivation zur Innovation zurückzuführen, der in der Branchenkultur aufgrund von der vergangenen Monopolstellung und dem hohen Sicherheitsanspruch zu einer risikoaversen Haltung führt. Daher muss die fortschreitende Liberalisierung des Eisenbahnmarktes abgeschlossen und die Sicherheitskonzepte neu strukturiert werden, um ein innovationsfreundliches Umfeld zu schaffen.
Letztendlich sollte das Vorgehensmodell in einer realen Umgebung getestet werden. Es wäre interessant zu erfahren, ob das entwickelte Modell zu den in dieser Arbeit entwickelten Ergebnissen hinsichtlich der mangelnden Motivation für Innovationen passt. Darüber hinaus scheint eine Validierung von Experten angebracht zu sein, da die Entwicklung des Modells von der Literaturrecherche abhängt
Das Ziel der vorliegenden Bachelorarbeit war die Untersuchung
verschiedener Methoden zur Ermittlung und Verbesserung der User
Experience eines Softwareproduktes einer mittelständigen Firma. Hierzu
wurde zunächst ein geeignetes Designkonzept und dazu passende Methoden
der Evaluation und des Testings ermittelt und dann auf das Produkt
angewendet. Mit dem Leitgedanken des User-Centered-Designs wurden
Methoden ausgewählt, welche die Nutzerinnen/Nutzer ins Zentrum der
Untersuchung stellten.
So konnte mit Hilfe der Nutzerinnen/Nutzer des Produktes
herausgefunden werden, wie die User-Experience ausfällt und wie diese
noch verbessert werden kann. In einer Fokusgruppe sind Prototypen für
die Verbesserung und Weiterentwicklung der Software entstanden.
Diese Bachelorarbeit ist sowohl für Sofwaredesignerinnen/-designer,
als auch für Studentinnen/Studenten der Mensch-Maschine-Kommunikation
interessant.
Redaktionelle Korrektur betreffend die Habilitationsordnung des Fachbereichs 3: Mathematik/Naturwissenschaften
Erste Ordnung zur Änderung der Promotionsordnung des Fachbereiches 2: Philologie / Kulturwissenschaften
Promotionsordnung des Fachbereichs 4: Informatik
Teilgrundordnung für das Qualitätsmanagementsystem der Universität Koblenz-Landau
Ordnung zur Qualitätssicherung und -entwicklung in Studium und Lehre an der Universität Koblenz-Landau
We examine the systematic underrecognition of female scientists (Matilda effect) by exploring the citation network of papers published in the American Physical Society (APS) journals. Our analysis shows that articles written by men (first author, last author and dominant gender of authors) receive more citations than similar articles written by women (first author, last author and dominant gender of authors) after controlling for the journal of publication, year of publication and content of the publication. Statistical significance of the overlap between the lists of references was considered as the measure of similarity between articles in our analysis. In addition, we found that men are less likely to cite articles written by women and women are less likely to cite articles written by men. This pattern leads to receiving more citations by articles written by men than similar articles written by women because the majority of authors who published in APS journals are male (85%). We also observed Matilda effect reduces when articles are published in journals with the highest impact factors. In other words, people’s evaluation of articles published in these journals is not affected by the gender of authors significantly. Finally, we suggested a method that can be applied by editors in academic journals to reduce the evaluation bias to some extent. Editors can identify missing citations using our proposed method to complete bibliographies. This policy can reduce the evaluation bias because we observed papers written by female scholars (first author, last author, the dominant gender of authors) miss more citations than articles written by male scholars (first author, last author, the dominant gender of authors).
Die zytologische Untersuchung des Knochenmarks dient der Abklärung von
Abweichungen des Differentialblutbildausstriches, zur Ursachenbestimmung bei Blutarmut (Anämie), dem Ausschluss eines Knochenmarkbefalls bei Lymphknotenvergrößerungen (Lymphomen) und wird zudem bei Verdacht auf Leukämie durchgeführt.
Selbst für erfahrene Hämatologen ist die manuelle Klassifikation von Knochenmarkzellen zeitaufwändig, fehleranfällig und subjektiv. Aus diesem Grund wurden im Rahmen dieser Arbeit neue Methoden der Bildverarbeitung und Mustererkennung für eine automatische Klassifikation von hämatopoetischen Zellen samt Vorverarbeitung für ein computer-assistiertes Mikroskopiesystem entwickelt, welche anhand einer einzigartig großen Referenzdatenbank evaluiert und ausgewertet wurden. Die vorgeschlagenen Bildanalyseverfahren für Knochenmarkpräparate, welche insbesondere die Detektion der Ausstriche, die Bestimmung von relevanten Regionen, die Lokalisierung und Segmentierung von einzelnen Zellen sowie die Merkmalsextraktion und Klassifikation automatisieren, liefern die Basis für das weltweit erste System zur automatischen, morphologischen Analyse von Knochenmarkpräparaten für die Leukämiediagnose und stellen daher einen wichtigen Beitrag für eine bessere und effizientere Patientenversorgung in der Zukunft dar.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Changing Lives through Relocation - Ethnography of a Socialized Housing Project in the Philippines
(2018)
Changing lives through relocation - This is the vision of a socialized housing project in the Philippines which is subject of this dissertation. It is a polyphonic ethnography that investigates the transition process from an informal, marginalized, self-organized lifestyle in squatter areas and dumpsite settlements to an institutionalized and policy-based life in the socialized housing project. The transition process is analyzed from a material cultural perspective taking into account selected aesthetic theories. With this approach, the dissertation aims to contribute to the study of the aesthetic dimension of everyday life from an ethnographic perspective. Aesthetics are applied on three levels: (1) On the theoretical level, the concepts of social aesthetics and atmospheres enrich the analysis of the interrelation between the residents and their new house in the socialized housing project. (2) On the methodological level, the relevance of aesthetic experiences for the ethnographic knowledge process are discussed. And (3) on the descriptive level, selected and thematically relevant sensory and aesthetic experiences of the researcher inform the ethnographic account in the form of memoirs. By incorporating aesthetic theories, the dissertation gives a more holistic account of the dynamics active in the transition process. It shows that the change of lifestyle is experienced sensorily through the daily physical engagement with the new material environment, i.e. its specific materiality and infrastructure, its affordances and constraints giving rise to new experiences and needs. In this process, the residents become aware of the differences between the past and present way of life and thus experience the new challenges through their physical being in the new material environment. On the one hand, this evokes a nostalgic attitude towards their previous life, but on the other hand, it also gives form to ideas of a possible future.
Maßnahmen der Führungskräfteentwicklung verfolgen das Ziel den Führungsnachwuchs des Unternehmens zu bilden und für einen reibungslosen Einstieg in die Füh-rungsaufgabe zu sorgen. In der Literatur gibt es zahlreiche Theorien und Modelle zu Führung und deren Entwicklung, doch offen bleibt meist, wie es um den praktischen Einsatz und die Effektivität steht. Das Ziel dieser Arbeit ist die Identifikation wesentlicher Bestandteile der Führungskräfteentwicklung, die effektiv Einfluss auf (Nachwuchs-)Führungskräfte nehmen. Drei Studien beschäftigen sich jeweils mit unter-schiedlichen Schwerpunkten mit der Gestaltung und Wirksamkeit von modularen Programmen der Führungskräfteentwicklung. Zur Beschreibung der Gestaltung wurde eine Expertenbefragung unter Verantwortlichen für Führungskräfteentwicklung in 4 Großunternehmen durchgeführt. Zur Prüfung der Wirksamkeit wurden zwei Prädiktoren erfolgreichen Führens, die praktische Führungsintelligenz und die Führungswirksamkeitserwartung (FWE), in zwei repräsentativen modularen Programmen gemessen. Dafür wurden zwei quasiexperimentelle Designs mit Prätest-Posttest durchgeführt: ein Design mit zusätzlicher Kontrollgruppe (Nexp = 14, Nkontr = 12), ein Design mit zusätzlicher Fremdeinschätzung (N = 11 bis N =57 je nach Messzeitpunkt und beteiligten Variablen). Die praktische Führungsintelligenz wurde anhand eines für die Untersuchung entwickelten Situational Judgment Tests (SJTs) gemessen. Neben der FWE (in Anlehnung an die Skala zur Erfassung der beruflichen Selbstwirksamkeitserwartung, BSW-Skala) wurden weitere Konstrukte wie Selbstregulation (Locomotion-Assessment-Fragebogen, L-A-F), Optimismus (Skala Optimismus-Pessimismus-2, SOP2) Selbstmanagement (Fragebogens zur Erfassung von Ressourcen und Selbstmanagementfähigkeiten, FERUS) erfasst, sowie explorativ entwicklungsförderliche Merkmale erhoben. Entsprechend der Annahme verdichten sich die Ergebnisse auf drei Merkmale wirksamer Trainingsgestaltung: Erfahrungssammlung, Feedback, Selbstreflexion. Es konnte nachgewiesen werden, dass Programme mit hohem erfahrungsorientiertem Trainingsanteil, die Erfolgserlebnisse und Modelllernen fördern sowie persönliche Gespräche und Feedback beinhalten, die FWE (ŋ2 = .24, ŋ2 = .50) und die praktische Führungsintelligenz (ŋ2 = .54). signifikant (p<.05) steigern. Deutlich wurde auch der enge Zusammenhang zwischen Merkmalen der Person (wie Ausprägung der FWE oder Selbstregulationsfähigkeiten) und der Wirksamkeit der Programme. Aus den Ergebnissen werden Empfehlungen zur praktischen Umsetzung in der Führungskräfteentwicklung abgeleitet und Anregungen für zukünftige Forschung diskutiert.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
Das Internet der Dinge (IoT) ist ein Konzept, bestehend aus vernetzten physischen Objekten, welche in die virtuelle Welt integriert werden um aktive Teilnehmer von Geschäfts- und Alltagsprozessen zu werden (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). Es wird erwartet, dass dieses Konzept einen großen Einfluss auf Unternehmen haben wird (Council, Nic and Intelligence, 2008). Geschäftsmodelle kleiner und mittelständischer Unternehmen (KMU) sind bedroht, sollten sie den sich abzeichnenden Trend nutzen (Sommer, 2015). Daher ist das Ziel dieser Arbeit, eine exemplarische Implementierung von vernetzten Geräten in einem kleinen Unternehmen um seine Vorteile darzustellen.
Diese Arbeit verwendet Design Science Research (DSR) um einen Prototyp zu entwickeln, der auf dem Anwendungsfall einer Holzwerkstatt aufbaut. Der Prototyp besteht aus einem physischen Sensor und einer Webapplikation, welche von dem kleinen Unternehmen zur Verbesserung seiner Prozesse genutzt werden kann. Die Arbeit dokumentiert den iterativen Entwicklungsprozess der Prototypen von Grund auf zu nutzbarer Hard- und Software.
Der Hauptbeitrag dieser Arbeit ist die beispielhafte Anwendung und Nutzung von IoT in einem kleinen Unternehmen.
The concept of hard and soft news (HSN) is regarded as one of the most important concepts in journalism research. Despites this popularity, two major research voids can be assigned to the concept. First, it lacks conceptual clarity: the concept gets used interchangeably with related concepts such as sensationalism, which has led to fuzzy demarcations of HSN. Also, it is still not agreed on of which dimensions the concept in composed. Second, little is known about the factors that influence the production of news in terms of their hard or soft nature. The present disserta-tion casts a twofold glance on the HSN concept – it aims to assess the conceptual status of the concept and production of hard and soft news.
At the outset, this dissertation delineates the theoretical base for three manuscripts in total and presented considerations on concepts in social sciences in general and hard and soft news in particular as well as the production of news, particularly of hard and soft news. The first paper proposed a theoretical frame-work model to distinguish HSN and related concepts. Based on a literature review of in total five concepts, this model suggested a hierarchy in which these concepts can be discerned according to their occurrence in media content. The second pa-per focused on the inner coherence of the HSN concept in its most recent academ-ic understanding. The results of a factorial survey with German newspaper jour-nalists showed that, indeed, four out of five dimensions of the HSN concept com-prised what the journalists understood by it. Hence, the most recent academic un-derstanding is to a great extent coherent. The third study shed light on the produc-tion of HSN, focusing on the influence of individual journalists’ and audience’s characteristics on whether news was presented in hard or soft way. The findings of a survey with simulated decision scenarios among German print journalists showed that the HSN dimensions were susceptible to different journalistic influ-ences and that a perceived politically uninterested audience led to a softer cover-age. The dissertation concluded with connecting these findings with the considera-tions on concept evaluation and the production of news. Implications for research on and with the concept of HSN were presented, before concluding with limitations and suggestions for future research.
Ästuare sind charakterisiert durch einen longitudinalen Salinitätsgradienten. Der Salzgehalt ist einer der wichtigsten Umweltparameter, der die Verteilung der Arten bestimmt. Heute werden Grenzen von Salinitätszonen vor allem mit Hilfe des Venedig-Systems und durch eine von Bulger et al. (1993) entwickelte Methode festgelegt. Beide Systeme wurden in homoio¬halinen Ge¬wäs¬sern entwickelt und die Einteilung in Zonen erfolgt anhand der Verteilung von Arten in Abhängigkeit vom mittleren Salzgehalt. Sie werden jedoch auch regelmäßig in poikilohalinen Systemen angewendet. Ich habe, basierend auf Langzeitdaten von Salinität und Makrozoobenthos (MZB), untersucht, ob die beiden Methoden im poikilohalinen Elbeästuar (Deutschland) anwendbar sind. Meine Ergebnisse zeigten, dass die Variabilität der Salinität und nicht die mittlere Salinität für die Verteilung der Arten in den mittleren Bereichen des Ästuars bestimmend ist. Folglich ist die Anwendung von keinem der beiden getesteten Verfahren in poikilohalinen Gewässern sinnvoll. Ich empfehle die Anwendung von Clusteranalyseverfahren zur Festlegung signifikant unterschiedlicher Salinitätszonen in poikilohalinen Systemen.
In vielen Ästuaren bildet sich eine Zone maximaler Trübung (ZmT), in der suspendiertes Material durch Zirkulationsprozesse akkumuliert. Im Elbeästuar ist diese Zone deckungsgleich mit der Zone höchster Salinitätsvariabilität und weist zudem den höchsten organischen Anteil im Sediment sowie hohe Sedimentationsraten und organische Belastungen auf. Die Stress-Gradienten-Hypothese besagt, dass unter starkem äußerem Druck wie diesem, Populationen oft unter der Kapazitätsgrenze bleiben und Konkurrenz nur von geringer Bedeutung ist. Ich habe mittels stabiler Isotopenanalyse getestet, ob Nahrungskonkurrenz in der ZmT des Elbeästuars für die häufigsten Makroinvertebraten relevant ist. Innerhalb eines Ernährungstyps zeigten die artspezifischen Isotopennischen keine oder nur eine geringe Überlappung. Folglich ist Konkurrenz um Nahrung in der ZmT nur von untergeordneter Bedeutung. Ursachen für getrennte Isotopennischen waren vor allem bedingt durch Unterschiede in Habitat (Korngröße) und Migrationsverhalten der Makroinvertebraten.
Ästuare gehören heute auf Grund anthropogener Einflüsse zu den am stärksten gefährdeten Gewässern. Das Ausmaß der Veränderungen in deren Artengemeinschaften während des letzten Jahrhunderts ist jedoch weitgehend unbekannt. Ich habe anhand historischer und aktueller Daten (1889, 1985, 1986, 2006) taxonomische und funktionale Veränderungen des MZB im Elbeästuar untersucht. Taxonomische Unterschiede zwischen den Untersuchungsjahren waren vor allem auf das Verschwinden von Arten und Auftreten anderer Arten (turnover) zurückzuführen. Funktionale Unterschiede entstanden hauptsächlich dadurch, dass Arten mit bestimmten Traits (Morphologie, Reproduktion, Entwicklung, Ernährung, Habitat) verschwanden, ohne dass diese Arten von anderen Arten mit gleichen Traits ersetzt wurden (nestedness). Artenzahl und funktioneller Reichtum waren 1985 und 1986 am niedrigsten. In den Jahren 1889 und 2006 waren sie am höchsten und nahezu gleich. Dies impliziert, dass die vom MZB im Ästuar von 1889 bereitgestellten Ökosystemfunktionen im Jahr 2006, jedoch unter veränderter taxonomischer Zusammensetzung, wieder vorhanden waren. Meine Ergebnisse verdeutlichen die hohe Relevanz von funktionaler Redundanz und funktionalem Reichtum für die Resilienz und Stabilität von Ökosystemen.
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Verschiedene Methoden (Gewichtsverlust, elektrochemische und Sprühkorrosionsmessungen) wurden eingesetzt, um die Korrosionsinhibierung von vier Sarkosinderivaten und einer kommerziellen Verbindung als Synergist zu bewerten. Das Basismetall war kohlenstoffarmer Stahl CR4, der unter verschiedenen Bedingungen getestet wurde. Als Arbeitsmedien wurden hauptsächlich neutrales Wasser und 0.1 M NaCl eingesetzt. Der Schutzfilm wurde auf der Stahloberfläche durch direkte Apsorption der Prüfsubstanzen während des Eintauchprozesses gebildet. Ein stark verbesserter Korrosionsschutz mit direkter Korrelation zwischen Molekulargewicht und Kohlenstoffkettenlänge der Prüfsubstanzen konnte nachgewiesen werden. Die Schutzwirkung der ausgewählten Sarkosinverbindungen auf Stahl CR4 erhöht sich in 0.1 M NaCl mit zunehmender Konzentration. In allen getesteten Methoden und Konzentrationen erwies sich Oleoylsarcosin (O) als bester Inhibitor. Es wurden Wirksamkeiten bis zu 97 % in der potentiodynamischen Polarisation (PP), 83 % bei der elektrochemische Impedanzspektroskopie (EIS) und 85 % in der Gewichtsabnahme (WL) bei 100 mmol/L als höchster hier getesteten Konzentration erzielt. Der zweitbeste Inhibitor ist Myristoylsarcosin (M) mit Effektivitäten bis zu 82 % in PP, 69 % in EIS und 75 % in WL ebenfalls bei der höchsten Konzentration. Der Inhibitor mit der kürzesten Kette in dieser Testreihe ist Lauroylsarcosin (L). L ergab Schutzwirkungen von etwas über 50 % bei 75 und 100 mmol/L und unter 50 % bei 25 und 50 mmol/L in allen angewandten Methoden. Zudem werden die Gesamteffizienzen aller verwendeten Prüfsubstanzen durch längere Einwirkzeiten beim Eintauchen der CR4 Stahlproben erhöht, wie für 50 mmol/L gezeigt werden konnte. Die Untersuchung ergab 10 Minuten als beste Zeit bezüglich Kosten- und Schutzeffizienz. Der kommerzielle Inhibitor Oley-Imidazol (OI) verbesserte die Wirksamkeit von Cocoylsarcosin (C), der natürlichen Mischung aus Kokosnussöl mit Kohlenstoffkettenlängen von C8 - C18, und verbesserte den Schutz in einer 1:1 (mol) Kombination (C+OI). Hierbei stieg der Wirkungsgrad von 47 % auf 91 % in PP, von 40 % auf 84 % in EIS und von 45 % auf 82 % in WL bei der höchsten Konzentration. Mit Hilfe von Sprühkorrosionstests wurden alle vorliegenden Sarkosinsubstanzen auf Stahl CR4 in einem realistischeren System untersucht. Der beste Inhibitor nach einem 24 Stunden-Test war O, gefolgt von der Kombination C+OI und M mit entsprechenden Wirkungsgraden von bis zu 99 % (O), 80 % (C+OI) bzw. 79 % (M). Die erhaltenen Ergebnisse zeigen eine gute Stabilität der Prüfsubstanzen bezüglich des gebildeten Schutzfilms auch nach 24 h. Alle verwendeten Methoden ergaben in der aktuellen Untersuchung übereinstimmende Ergebnisse und die gleiche Reihenfolg der Inhibitoren. Darüber hinaus wird angenommen, dass der Adsorptionsprozess der Prüfsubstanzen der Langmuir-Isotherme folgt. Die Response Surface Methodik (RSM) ist eine vom Box-Behnken Design (BBD) abhängige Optimierungsmethode. Diese wurde im aktuellen System angewandt, um die optimale Effektivität für Inhibitor O beim Korrosionsschutz von Stahl CR4 in Salzwasser zu ermitteln. Hierfür wurden vier unabhängige Variablen benutzt: Inhibitorkonzentration (A), Tauchbeschichtungszeit (B), Temperatur (C) und NaCl-Konzentration (D); jeweils in drei Stufen: untere (-1), mittlere (0) und obere (+1). Nach dem vorliegenden Ergebnis hat die Temperatur als Einzelparameter den größten Einfluss auf den Schutzprozess, gefolgt von der Inhibitorkonzentration. Anhand der Berechnung ergibt sich ein optimaler Wirkungsgrad von 99 % durch folgende Parameter- und Pegelkombination: oberer Wert (+1) jeweils für Inhibitorkonzentration, Tauchbeschichtungszeit und NaCl-Konzentration sowie ein unterer Wert (-1) für die Temperatur.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
Die Digitalisierung und die mediale Weiterentwicklung sind Kernprozesse des aktuellen digitalen Zeitalters. Damit auch Unternehmen vom technischen Fortschritt profitieren können, müssen jeweilige Kompetenzen vorhanden sein oder erworben werden. Unternehmen stehen hier also vor der Aufgabe mit der Masse an Neuheiten und Möglichkeiten nicht überfordert zu sein und diese im besten Fall für die eigene Leistungssteigerung nutzen zu können.
Da kleine und mittelständische Unternehmen 99 % aller Unternehmen in Deutschland darstellen und nicht bekannt ist, wie vor allem die sehr kleinen Unternehmen und ihre Mitarbeiter mit o.g. Entwicklung mitziehen können, wird genau diese Thematik in der vorliegenden Arbeit erforscht. Die Forschungsfrage besteht somit aus zwei Teilforschungsfragen. Zum einen: „Wird sich in den Kleinstunternehmen um die Kompetenzförderung der Mitarbeiter gekümmert?“ und zum anderen: „Wo sind hier die Chancen und Herausforderungen für Unternehmen dieser Größe?“
Um die Forschungsfrage zu beantworten, wurde sich einer qualitativen Forschungsmethode bedient, dem leitfadengestützten Interview. Die interviewten Unternehmen bewegten sich alle im Medien- und IT-Bereich. Somit konnte sich durch die aufgezeichneten und transkribierten Daten ein realer Einblick in die aktuelle Situation in Kleinstunternehmen verschafft werden.
Die Antworten der Interviews zeigten, dass Unternehmen mit sehr geringen Mitarbeiteranzahlen, von ihren Mitarbeitern abhängiger sind als andere. Also ist das Engagement der Mitarbeiter entscheidend für den Erfolg des Ganzen. Dieses zu fördern und die Mitarbeiterzufriedenheit zu gewährleisten ist die Aufgabe der Unternehmensleitung.
Unternehmen, in denen die Förderung der Mitarbeiter mehr Beachtung erfährt, bilden also die perfekte Anlaufstelle für Berufseinsteiger, die sich und ihren gesamten Erfahrungshorizont noch weiterentwickeln müssen und/oder wollen.
Hubschrauber sind aus heutiger Sicht unverzichtbar. Eine Reihe von Anwendungsgebieten zeigt das Einsatzspektrum, die andere Flugmuster im Vergleich zum Hubschrauber nicht leisten können. Allerdings handelt es sich bei einem Hubschrauber um ein sowohl technologisch als auch physikalisch hochkomplexes System. Entsprechend aufwendig ist die Aus- und Weiterbildung von Piloten. Gerade in den letzten zwei Jahrzehnten hat sich daher die Flugsimulation als wertvolle Ergänzung zum klassischen Training herausgestellt. Mittels Flugsimulatoren ist es möglich, schwierige oder gar gefährliche Situationen bedarfsgerecht nachzuempfinden und zu üben. Im Rahmen dieser Arbeit soll ein vereinfachter Hubschraubersimulator, basierend auf Starkörperkinematik, entwickelt werden. Dabei wird ein idealisiertes Rotormodell angenommen und auf komplexe strömungsmechanische Phänomene verzichtet, um eine Implementation übersichtlich zu illustrieren und echtzeitfähig zu sein. Dabei sind die Module dementsprechend in der Unreal Engine umgesetzt, dass eine Adaption an andere Flugmuster ohne großen Aufwand möglich ist.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.
VR Fresken
(2018)
Das Projekt VR Fresken setzte sich zum Ziel, mit Hilfe von virtueller Realität im Rahmen einer Museumsausstellung historisch rekonstruierte Räume und deren Deckenfresken interaktiv erlebbar zu machen. In dieser Arbeit werden die eingesetzten Techniken und Technologien beleuchtet, der Anwendungsfall der VR für den Einsatz im Museum untersucht, sowie eine Evaluation der Software im Alltagsbetrieb im Museum durchgeführt.
Die Dissertation bietet eine Langzeituntersuchung deutscher TV-Duelle hinsichtlich der Fragen, inwieweit die in den Debatten behandelten Themen mit den seitens der Wählerschaft wahrgenommenen politischen Probleme korrespondieren sowie ob die in den TV-Duellen diskutierten, akteursspezifischen Themen einen Einfluss auf die Problemwahrnehmung der Wählerschaft und die wahrgenommene Responsivität politischer Akteure hat. Zu diesem Zweck werden die Inhalte und Effekte der Kanzlerduelle 2002-2013 sowie der zwischen 1997 und 2016 durchgeführten TV-Duelle auf Landesebene untersucht. Die empirische Untersuchung basiert auf der Durchführung und Auswertung von Inhaltsanalysen, der Analyse von Bevölkerungsumfragen und der Untersuchung von Experimentaldaten, die anlässlich der Kanzlerduelle in den Jahren 2002, 2009 und 2013 durchgeführt wurden. Die Analysen zeigen, dass TV-Duelle keine reine Show-Veranstaltung darstellen, sondern das Hauptaugenmerk in TV-Duellen auf politischen Inhalten (statt unterhaltenden Elementen) liegt, die (lagerspezifische) Responsivität des Formats im Zeitverlauf angestiegen ist und erfolgreiche Persuasion – als eine von zwei Themenmanagementstrategien – vor allem der Herausforderer dazu führen kann, dass Zuschauer die Effektivität des politischen Systems besser bewerten.
Social Entrepreneurship ist eine Form des Unternehmertums, die einen sozialen Auftrag mit einem wettbewerbsfähigen Leistungsversprechen verbindet. Insbesondere fördert Social Entrepreneurship eine gerechtere Gesellschaft, indem es soziale Fragen anspricht und versucht, eine nachhaltige Wirkung durch eine soziale Mission und nicht durch reine Gewinnmaximierung zu erzielen. Das Thema Social Entrepreneurship hat sich auf viele verschiedene Forschungsrichtungen ausgeweitet. Der Fokus darauf, zu verstehen, wie und warum Unternehmer denken und handeln, bleibt eine wichtige Rechtfertigung für die zukünftige Forschung. Dennoch steckt die theoretische Auseinandersetzung mit diesem Phänomen noch in den Kinderschuhen. Sociale Entrepreneurship-Forschung ist nach wie vor weitgehend Phänomen getrieben. Insbesondere die Forschung zur sozialunternehmerischen Absicht befindet sich in einem frühen Stadium und es fehlt an quantitativer Forschung. Daher wird in dieser Arbeit vorgeschlagen, diese Notwendigkeit zu adressieren. Damit verfolgt die Dissertation zwei Ziele: (1) ein Modell für soziale unternehmerische Intentionen im Allgemeinen zu entwickeln und (2) das Modell durch eine empirische Studie zu testen. Auf der Grundlage dieser Ziele, sind die beiden leitenden Forschungsfragen: (1) Welche Faktoren beeinflussen die Absicht einer Person ein Social Entrepreneur zu werden? (2) Welche Beziehungen bestehen zwischen diesen Faktoren?
Um diese beiden Forschungsfragen zu beantworten, erscheint ein Forschungsdesign zielführend, das eine Kombination aus Literaturrecherche und empirischer Studie darstellt. Die Literaturrecherche basiert auf einem umfassenden Angebot an Büchern, Artikeln und Forschungsarbeiten, die in führenden akademischen Zeitschriften und Konferenzberichten in verschiedenen Disziplinen wie Entrepreneurship, Social Entrepreneurship Education, Management, Sozialpsychologie und Sozialökonomie veröffentlicht wurden. Die empirische Studie umfasst eine Befragung von 600 Studierenden im letzten Studienjahr an vier Universitäten in drei Regionen Vietnams: Hanoi, Da Nang und Ho Chi Minh. Die Daten werden mit SPSS-AMOS Version 24 unter Verwendung von Screening-Daten, Maßstabsentwicklung, explorativer und konfirmativer Faktorenanalyse analysiert. Die Dissertation findet heraus, dass Entrepreneurship Experience/Extra-curricular Activity, Role Model, Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation sich direkt und positiv auf die Absicht der vietnamesischen Studierenden auswirken, Social Entrepreneurs zu sein. Entrepreneurship Education beeinflusst auch die Social Entrepreneurial Intention, aber nicht direkt, sondern indirekt über Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation. Ebenso hat Perceived Support keinen direkten Bezug zu Social Entrepreneurial Intention, zeigt aber eine indirekte Verbindung über den Mediator Social Entrepreneurial Outcome Expectation. Darüber hinaus bringt die Dissertation neue Einblicke in die Social Entrepreneurship-Literatur und liefert wichtige Implikationen für die Praxis. Einschränkungen und zukünftige Richtungen sind auch in der Dissertation enthalten.
Die vorliegende Arbeit verfolgt das Erkenntnisinteresse, die Hindernisse auf der Ebene der kulturellen Muster und Wertvorstellungen zu ermitteln, die der Implementierung eines dualen Ausbildungssystems nach bundesdeutschem Vorbild in den USA entgegenwirken. Es wird ein Einblick in die historische und systematische Verwobenheit von gesellschaftlichen Teilstrukturen gegeben und verdeutlicht, warum solche Teilstrukturen nicht ohne Weiteres in andere gesellschaftliche Kontexte übertragen werden können.
Nach einer begrifflichen und theoretischen Grundlegung von deutschen und US-amerikanischen Formen betrieblicher Ausbildung werden die beiden Systeme miteinander verglichen, um signifikante Unterschiede zu identifizieren und dabei erste Anhaltspunkte für vorhandene Inkompatibilitäten auf der strukturellen Ebene zu erhalten. Hierbei steht die Frage im Vordergrund, inwieweit die dominanten und dauerhaften Charakteristika und Komponenten des deutschen Ausbildungsmodells im US-amerikanischen System wiedergefunden werden können. Durch die Einnahme einer kulturalistischen Perspektive werden die kulturspezifischen Werte und Praktiken Deutschlands und der USA erarbeitet, um die Kulturgebundenheit der Struktur, Organisation und Rahmenbedingungen von dualen Berufsausbildungen zu verdeutlichen. Hierfür wird eine Kombination aus einem etischen und einem emischen Vorgehen angewandt und die ermittelten Daten in Form einer kontrastierenden Darstellung aufbereitet, aus der die prägnantesten Kulturunterschiede hervorgehen. Mit Hilfe der erlangten Erkenntnisse werden Ansätze für ein System der dualen Berufsausbildung in den USA entwickelt, das die Implikationen aus dem Kulturvergleich aufgreift und so die für das deutsche System charakteristischen Merkmale unter Berücksichtigung der spezifischen kulturellen Muster adaptiert.
Finanzordnung Abteilung Landau
Satzung der örtlichen Studierendenschaft an der Universität Koblenz-Landau, Campus Landau
Wahlordnung der örtlichen Studierendenschaft der Universität Koblenz-Landau, Campus Landau
Habilitationsordnung des Fachbereichs 3: Mathematik / Naturwissenschaften der Universität Koblenz-Landau, Campus Koblenz
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz-Landau für das Studienjahr 2018/2019
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz-Landau
Ordnung für die Prüfung im Masterstudiengang Master of Engineering Ceramic Science and Engineering - Nichtmetallisch-anorganische Werkstoffe und Technologien (NAWT) - an der Hochschule Koblenz und der Universität Koblenz-Landau (Kooperativer Masterstudiengang)
Zweiundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Neunzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Zehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der philosophisch-Theologischen Hochschule Vallendar
Neunte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang Lehramt an berufsbildenden Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Achtzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau
Sechzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang „Angewandte Naturwissenschaften“ und den Masterstudiengang „Chemie und Physik funktionaler Materialien“ an der Universität Koblenz-Landau
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang „Mathematische Modellierung“ und den Masterstudiengang „Mathematical Modeling of Complex Systems“ an der Universität Koblenz-Landau
Aquatische Ökosysteme sind einer Vielzahl an Umweltstressoren sowie Mischungen chemischer Substanzen ausgesetzt, darunter Petroleum und Petrochemikalien, Metalle und Pestizide. Aquatische Gemeinschaften wirbelloser Arten werden als Bioindikatoren genutzt,
um Langzeit- sowie integrale Effekte aufzuzeigen. Die Information über das Vorkommen von Arten kann dabei um weitere Informationen zu Eigenschaften dieser Arten ergänzt werden.
SPEAR-Bioindikatoren fassen diese Informationen für Artengemeinschaften zusammen.
Ziel der vorliegenden Doktorarbeit war es, die Spezifität von SPEAR-Indikatoren gegenüber
einzelnen Chemikaliengruppen zu verbessern – speziell für Ölsand-Bestandteile,
Kohlenwasserstoffe und Metalle.
Für die Entwicklung eines Bioindikators für diskontinuierliche Belastung mit organischen Ölbestandteilen wurde eine Freilandbeprobung in der kanadischen Ölsand-Abbauregion im nördlichen Alberta durchgeführt. Die Arteneigenschaften „physiologische Sensitivitiät
gegenüber organischen Chemikalien“ sowie „Generationszeit“ wurden in einem Indikator,
SPEARoil, integriert, welcher die Sensitivität der Artengemeinschaften gegenüber Ölsand-Belastung in Abhängigkeit von luktuierenden hydrologischen Bedingungen aufzeigt.
Äquivalent zum SPEARorganic-Ansatz wurde eine Rangliste der physiologischen Sensitivität einzelner Arten gegenüber Kohlenwasserstoff-Belastung durch Rohöl oder Petroleum
entwickelt. Hierfür wurden Informationen aus ökotoxikologischen Kurzzeit-Laborversuchen durch Ergebnisse aus Schnell- und Mesokosmen-Tests ergänzt. Die daraus entwickelten
Shydrocarbons-Sensitivitätswerte können in SPEAR-Bioindikatoren genutzt werden.
Um Metallbelastung in Gewässern mittels Bioindikatoren spezifisch nachweisen zu können,
wurden die Arteneigenschaften „physiologische Metallsensitivität“ und „Ernährungsweise“
von Artengemeinschaften in australischen Feldstudien ausgewertet. Sensitivitätswerte für
Metalle erklärten die Effekte auf die Artengemeinschaften im Gewässer jedoch unzureichend.
Die „Ernährungsweise“ hingegen war stark mit der Metallbelastung korreliert. Der Anteil räuberischer Invertebratenarten in einer Gemeinschaft kann daher als Indikator für Metallbelastung in Gewässern dienen.
Weiterhin wurden verschiedene Belastungsanzeiger für Chemikalien-Cocktails in der Umwelt anhand von Pestizid-Datensätzen verglichen. Belastungsanzeiger, die auf der 5%-Fraktion
einer Species-Sensitivity-Distribution beruhen, eigneten sich am besten, gefolgt von Toxic Unit-Ansätzen, die auf der sensitivsten Art einer Gemeinschaft oder Daphnia magna beruhen.
Tradierte Managementsysteme und primär auf die Erfüllung finanzieller Ziele ausgerichtete Führungsansätze scheinen heute der wirtschaftlichen Dynamik nicht mehr gewachsen. Die Zahl ausgebrannter Führungskräfte und Mitarbeiter nimmt zu. Ebenso der volkswirtschaftliche Schaden durch schlechte Führungsleistung. Zwar beeinflussen externe Faktoren wie globaler Wettbewerb, aufkeimende Handelskriege, die Digitalisierung in Wirtschaft und Gesellschaft die Rahmensetzungen für Unternehmen. Die Entscheidung über Erfolg oder Misserfolg verlagert sich aber signifikant nach Innen.
Diese Arbeit zeigt auf, dass Wissenschaftler und erfolgreiche CEOs einen Paradigmenwechsel fordern, da sie Kommunikationsbereitschaft und Kommunikationsfähigkeit als die relevanten Erfolgsfaktoren identifizieren. Unterstützend bestätigen interdisziplinäre Erkenntnisse und Forschungsergebnisse anderer Disziplinen – speziell der Neurowissenschaften, die Wirksamkeit einer Kommunikationskultur, die alle Sinne des Menschen aktiviert.
Das Phänomen der Kommunikation ganzheitlich zu verstehen und mittels dialogbasiertem Management umzusetzen, wird zum neuen Erfolgsschlüssel und wirkt sich auf alle unternehmerischen Prozesse, Führungs- und Interaktionssituationen aus. Unabhängig von Betriebsgröße und Branche. Die durch Dialog in Gang gesetzte positive reziproke Eskalation führt dazu, dass Kollegen/Mitarbeiter ihr Können und ihr Engagement in viel höherem Maße freiwillig zur Verfügung stellen, als es z.B. finanzielle Anreizsysteme je bewirken können.
Die Empirie dieser Forschungsarbeit spiegelt das Wissen der 22 hoch erfolgreichen österreichischen CEOs, Führungskräfte und Firmeneigentümer über Interne Kommunikation und deren Annäherung an diese Führungsaufgabe wider. In der Folge sind Leit-Ideen das vernetzte Ergebnis der theoretischen und empirischen Analysen. Diese daraus destillierten Leit-Ideen stehen für einen radikal dialogbasierten Kommunikationsansatz, der sämtliche Management-, Geschäfts- und Unterstützungsprozesse determiniert.
Verstehen CEOs und Führungskräften eine dialogbasierte Interne Kommunikation als eindeutig ihnen zufallende Führungsaufgabe, kann heute und in Zukunft die Querschnittsmaterie Interne Kommunikation zum größten Ressourcen-Pool für unternehmerischen Erfolg werden, so die diesbezüglichen Schlussfolgerungen.
Knowledge-based authentication methods are vulnerable to Shoulder surfing phenomenon.
The widespread usage of these methods and not addressing the limitations it has could result in the user’s information to be compromised. User authentication method ought to be effortless to use and efficient, nevertheless secure.
The problem that we face concerning the security of PIN (Personal Identification Number) or password entry is shoulder surfing, in which a direct or indirect malicious observer could identify the user sensitive information. To tackle this issue we present TouchGaze which combines gaze signals and touch capabilities, as an input method for entering user’s credentials. Gaze signals will be primarily used to enhance targeting and touch for selecting. In this work, we have designed three different PIN entry method which they all have similar interfaces. For the evaluation, these methods were compared based on efficiency, accuracy, and usability. The results uncovered that despite the fact that gaze-based methods require extra time for the user to get familiar with yet it is considered more secure. In regards to efficiency, it has the similar error margin to the traditional PIN entry methods.
Die Zielsetzung der vorliegenden Masterarbeit lag darin, die instrumentelle Gewäs-seranalytik im Freiland für Schüler*innen erschließbar zu machen.
Als Maßnahme der Master-Thesis wurde eine arbeitsteilige Lerneinheit rund um das Thema Gewässeranalytik für den außerschulischen Chemieunterricht der Sekun-darstufe II konzipiert und evaluiert. Die Konzeption erfolgte in Anlehnung an die Lehrpläne der Fächer Biologie, Geografie, Physik und Chemie des Landes Rhein-land-Pfalz. Zur Bewertung der Gewässergüte kam das digitale Messsystem Einstein Labmate für zahlreiche physikalisch-chemische Parameter zur Verwendung. Zu-sätzlich wurde das Online-Portal FLUVIDAT Saar zur rudimentären Bestimmung von Indikatororganismen sowie für eine Einordnung der Gewässerstruktur genutzt.
Im Rahmen der begleitenden Evaluation wird der Forschungsfrage nachgegangen, in wie weit die konzipierte Einheit praxistauglich und adressatengerecht für den Chemieunterricht der Oberstufe ist. Dies wird anhand der Konstrukte „Aktuelles Inte-resse“ und „Cognitive Load“ mit einem Fragebogen, einer Videoanalyse mit litera-turbasiertem Codierleitfaden sowie einem Lesbarkeitsindex der zugrundeliegenden Experimentieranleitungen überprüft.
Die Ergebnisse der Datenauswertung zeigten ein hohes aktuelles Interesse der Schüler*innen sowie eine angemessene kognitive Belastung. Durch die Erhebung der lernbezogenen kognitiven Belastung zeigte sich, dass die im unteren Bereich liegende Schwierigkeit der Materialien kognitive Kapazitäten zur Schemabildung frei gab.
With 47% land coverage in 2016, agricultural land was one of the largest terrestrial biomes in Germany. About 70% of the agricultural land was cropped area with associated pesticide applications. Agricultural land also represents an essential habitat for amphibians. Therefore, exposure of amphibians to agrochemicals, such as fertilizers and pesticides, seems likely. Pesticides can be highly toxic for amphibians, even a fraction of the original application rate may result in high amphibian mortality.
To evaluate the potential risk of pesticide exposure for amphibians, the temporal coincidence of amphibian presence on agricultural land and pesticide applications (N = 331) was analyzed for the fire-bellied toad (Bombina bombina), moor frog (Rana arvalis), spadefoot toad (Pelobates fuscus) and crested newt (Triturus cristatus) during spring migration. In 2007 and 2008, up to 80% of the migrating amphibians temporally coincided with pesticide applications in the study area of Müncheberg, about 50 km east of Berlin. Pesticide interception by plants ranged between 50 to 90% in winter cereals and 80 to 90% in winter rape. The highest coincidence was observed for the spadefoot toad, where 86.6% of the reproducing population was affected by a single pesticide in winter rape during stem elongation with 80% pesticide interception by plants. Late migrating species, such as the fire-bellied toad and the spadefoot toad, overlapped more with pesticide applications than early migrating species, such as the moor frog, did. Under favorable circumstances, the majority of early migrants may not coincide with the pesticide applications of arable fields during spring migration.
To evaluate the potential effect of pesticide applications on populations of the common frog (Rana temporaria), a landscape genetic study was conducted in the vinicultural area of Southern Palatinate. Due to small sample sizes at breeding sites within viniculture, several DNA sampling methods were tested. Furthermore, the novel repeated randomized selection of genotypes approach was developed to utilize genetic data from siblings for more reliable estimates of genetic parameters. Genetic analyses highlighted three of the breeding site populations located in viniculture as isolated from the meta-population. Genetic differentiation among breeding site populations in the viniculture (median pairwise FST=0.0215 at 2.34 km to 0.0987 at 2.39 km distance) was higher compared to genetic differentiation among breeding site populations in the Palatinate Forest (median pairwise FST=0.0041 at 5.39 km to 0.0159 at 9.40 km distance).
The presented studies add valuable information about the risk of pesticide exposure for amphibians in the terrestrial life stage and possible effects of agricultural land on amphibian meta-populations. To conserve endemic amphibian species and their (genetic) diversity in the long run, the risk assessment of pesticides and applied agricultural management measures need to be adjusted to protect amphibians adequately. In addition, other conservation measures such as the creation of new suitable breeding site should be considered to improve connectivity between breeding site populations and ensure the persistence of amphibians in the agricultural land.
Die vorliegende Arbeit geht der Frage nach, wie sich Teilhabe und Inklusion von Menschen mit Lernschwierigkeiten in der allgemeinem Erwachsenenbildung realisieren lassen und was wesentliche Elemente und Rahmenbedingungen einer inklusiven Erwachsenenbildung mit Menschen mit Lernschwierigkeiten sind.
Menschen mit Lernschwierigkeiten haben ein gesetzlich verankertes Recht auf Teilhabe an inklusiver Erwachsenenbildung. Inklusive Erwachsenenbildung bezeichnet gemäß der UN-BRK die Teilnahme und Partizipation auch von Menschen mit Lernschwierigkeiten an allgemeiner Erwachsenenbildung, im Vordergrund steht das gemeinsame Lernen im regulären Programm allgemeiner Erwachsenenbildungseinrichtungen.
In der Aufarbeitung des theoretischen Diskurses und der praktischen Realisierung inklusiver Erwachsenenbildung zeigt sich allerdings, dass das Erwachsenenbildungsangebot für diese Personengruppe und die Möglichkeiten der Teilhabe am allgemeinen Erwachsenenbildungssystem in Deutschland eingeschränkt
sind. Umfassende Praxismodelle inklusiver Erwachsenenbildung sind erst in Ansätzen vorhanden, auch die Rahmenbedingungen gelingender inklusiver Erwachsenenbildung wurden kaum systematisch aufgearbeitet. Somit gilt es, für den Bereich der Erwachsenenbildung Konzepte zu entwickeln, die den Abbau von Barrieren und die Förderung von gleichberechtigter Teilhabe und Inklusion unterstützen. Es ist davon
auszugehen, dass die Kenntnis von wesentlichen Elementen und Rahmenbedingungen allgemeine Erwachsenenbildungseinrichtungen bei der Implementierung und Weiterentwicklung inklusiv gestalteter Erwachsenenbildung unterstützen und somit die Teilhabemöglichkeiten für Menschen mit Lernschwierigkeiten gezielt erweitern kann. Ziel dieser Arbeit ist deshalb die Erhebung und Beschreibung von wesentlichen Elementen und Rahmenbedingungen inklusiver Erwachsenenbildung.
Da es in Deutschland an Erfahrungswerten sowie der systematischen Ausarbeitung notwendiger Realisierungsbedingungen
inklusiver Erwachsenenbildung mangelt, richtet die vorliegende Arbeit ihren Blick in einem zweiten Schritt auf die ‚Inspiring Practice’ anderer Länder. In einer empirischen qualitativ-
explorativen Studie in elf Erwachsenenbildungseinrichtungen und -institutionen Englands werden mit Hilfe von 55 Leitfadeninterviews wesentliche Elemente und Rahmenbedingungen aus Sicht
der beteiligten Akteure erhoben und ausgewertet. Flankiert durch teilnehmende Beobachtungen, Dokumentenanalysen
und Gespräche liefern die Ergebnisse zugleich einen Einblick in die praktische Umsetzung inklusiver Erwachsenenbildung in England. Die Wahl fiel auf England, weil in diesem europäischen Land inklusive Erwachsenenbildung bereits seit den 1990er Jahren als fester Bestandteil
des Bildungssystems verankert ist und umfängliche Erfahrungen gesammelt werden konnten.
Aus der Analyse dieser Erfahrungswerte werden in der Diskussion und Zusammenschau mit theoretischen Überlegungen und praktischen Umsetzungen richtungsweisende Impulse für die Weiterentwicklung
der inklusiven Erwachsenenbildung in Deutschland abgeleitet und in einem Perspektivkonzept einer inklusiven Erwachsenenbildung zusammengefasst.
Im Rahmen der Masterarbeit wird die kompetenzgestützte Weiterbildungssuche analysiert und am Beispiel des Weiterbildungsvergleichsportales EDUfittery dargestellt.
Die Umsetzung und Integration eines Kompetenzmessverfahrens in ein Vergleichsportal für Weiterbildungen war das Ziel dieser Arbeit. Des Weiteren sollte anhand des Kompetenzmessverfahrens ein sogenanntes „Matching“ zwischen Kompetenz und Weiterbildung erarbeitet werden. Beim „Matching“ werden dementsprechend die vom Kunden eingegebenen Kompetenzen mit passenden Weiterbildungsvorschlägen verbunden. Somit wird ein individuelles Kundenerlebnis in der Weiterbildungssuche erreicht. Um dies zu ermöglichen, wird zu Beginn der Arbeit ein theoretisches Kompetenzschema analysiert, sodass Aussagen über Erhebungsverfahren und Auswertungsstrategien getroffen werden können, um diese, besonders in Bezug auf ein web-gestütztes Messinstrument, kritisch zu hinterfragen. Aufbauend auf der Analyse verschiedener Kompetenzmessverfahren im Online-Segment, kann gezeigt werden, dass die Kompetenzdiagnostik zwar einige Verfahren zur Verfügung stellt, doch nur wenige sind praktikabel und in der Lage tätigkeitsbezogene Handlungskompetenzen zu bewerten. Folglich wurde das Instrument der Selbsteinschätzung von Kompetenzen als am besten zutreffendes Verfahren für EDUfittery gewählt.
Im Zuge der Arbeit wurden zwei Online-Umfragen und ein Experteninterview durchgeführt. Dabei wurden zum einen Mitarbeiter, als auch Personaler in Bezug auf Weiterbildungen befragt. Als Experte konnte Herr Korn, von der IHK Akademie Koblenz gewonnen werden. Anhand der Umfrageergebnisse und weiterer Recherchen konnte ein umfangreicher Business Case für EDUfittery angefertigt und mit Prozessdiagrammen veranschaulicht werden. Es wird ersichtlich, dass das Thema Kompetenzanalysen in Unternehmen bisher kaum Anwendung findet. Bei genauerer Betrachtung der aktuellen Marktsituation wird zusätzlich klar, dass es derzeitig noch keine Plattform gibt, die Kompetenzen mit Weiterbildungen erfolgreich in Zusammenhang bringt, um dem Kunden individuelle Weiterbildungslösungen anbieten zu können. Als Ergebnis der Arbeit kann demnach festgehalten werden, dass eine Integration von Kompetenzanalysen im Bereich Weiterbildungssuche durchaus sinnvoll ist. EDUfittery könnte sich bei erfolgreicher Umsetzung als hilfreiches Tool im Bereich Weiterbildung und Kompetenz etablieren und somit Unternehmen grundlegend bei der Abbildung, Analyse und Weiterentwicklung von Kompetenzen unterstützen.
Veränderungen in dem komplexen Wirkungsgefüge eines Agrarökosystems können erhebliche Auswirkungen auf die lokale Biozönose zur Folge haben. Die Überdachung von Obstkulturen mit Netzen oder Folien zum Schutz vor Hagel und Regen stellt eine solche Veränderung dar. Im Rahmen dieser Dissertation wurde anhand einer biozönotischen Risikoanalyse der Einfluss intensiver Landnutzung in Obstkulturen sowie der Einfluss von Kulturschutzeinrichtungen auf die drei Gilden tagaktive Greifvögel, insektivore Vögel und Arthropoden untersucht. Greifvögel, insektivore Vögel und räuberische Arthropoden üben als Prädatoren wichtige Regulationsfunktionen im Nahrungsnetz eines Ökosystems aus. Arthropoden stellen zudem eine wichtige Nahrungsressource dar. Arten aller drei Gilden gelten als Bioindikatoren für Veränderungen im Ökosystem. Phytophage Arthropoden können landwirtschaftlich genutzte Monokulturen erheblich schädigen, weshalb die konventionelle Landwirtschaft zur gezielten Tötung solcher Schädlinge Insektizide einsetzt. Pestizidbehandlungen haben allerdings oft auch Auswirkungen auf viele Nützlinge und andere Organismen im Agrarökosystem.
Die visuelle Erfassung beider Vogelgilden sowie das Fangen der Arthropoden mit Boden- und Flugfallen erfolgte von März bis Juli in den Jahren 2011-2013 auf fünf Untersuchungsflächen im rheinland-pfälzischen Obstanbaugebiet Mainz-Bingen. Es wurden zwei benachbarte Apfelkulturen (eine Kontrollfläche und eine Versuchsfläche mit Hagelschutznetz) und zwei benachbarte Kirschkulturen (eine Kontrollfläche und eine Versuchsfläche ab 2012 mit Folien-Netz-Überdachung) sowie eine nahegelegene Streuobstfläche im lokalen NSG Höllenberg als naturnahe Kontrollfläche untersucht. Zusätzlich wurden im ersten Untersuchungsjahr vom 15. März bis 28. Juli 2011 auf allen Flächen die Ergebnisse einer täglichen automatischen akustischen Erfassung durch ein Stereo-Aufnahmegerät („Songmeter 2“, Wildlife Acoustics) mit denen einer wöchentlichen rein visuellen Erfassung der Vögel verglichen. Es gab keine signifikanten Unterschiede in Detektionseffizienz und Arterfassung der Avifauna zwischen beiden Methoden. Die lokale α-Diversität nach Simpson unterschied sich ebenfalls nicht signifikant zwischen beiden Methoden. Das akustische Monitoring detektierte mehr seltene (=weniger als zehn Funde im Untersuchungszeitraum) Vogelarten; 29% der Arten wurden ausschließlich akustisch nachgewiesen und knapp 13% ausschließlich visuell. Sieben Vogelarten unterschieden sich signifikant in ihrer ermittelten Abundanz zwischen beiden Methoden: Bachstelze, Feldlerche, Mauersegler und die Greifvögel Mäusebussard und Turmfalke waren besser bzw. der Schwarzmilan ausschließlich mit dem visuellen Monitoring zu erfassen, während der Fasan ausschließlich durch das akustische Monitoring nachgewiesen werden konnte. Für die Abundanzschätzung von 48 Vogelarten war es unerheblich, ob sie akustisch oder visuell erfasst wurden. Da seltene Arten bei biozönotischen Untersuchungen keine wesentliche Rolle spielen und die Auswertung der Akustikaufnahmen sehr zeitaufwändig war, wurden für die Risikoanalyse nur die visuell ermittelten Daten berücksichtigt.
Für die Greifvogel-Gilde wurden sechs Arten nachgewiesen, fünf auf der Kirschkontrollfläche und jeweils vier Arten auf den anderen Flächen. Die drei häufigsten Arten waren Mäusebussard, Turmfalke und Schwarzmilan. Greifvögel wurden im Luftraum der Flächen oder auf Sitzwarten wie Zäunen, Pfählen, Bäumen und Kulturschutzeinrichtungen bei der Nahrungssuche oder beim Revierverhalten beobachtet. Es konnte kein Einfluss der Landnutzung auf Greifvögel aufgezeigt werden, Diversität und Abundanz unterschieden sich nicht zwischen den Obstkulturen und der naturnahen Streuobstfläche im NSG. Ein Einfluss von Kulturschutzeinrichtungen auf Greifvögel konnte ebenfalls nicht nachgewiesen werden, die überdachten Flächen wurden genauso oft frequentiert wie die Kontrollflächen. Greifvögel überflogen innerhalb ihrer großen Aktionsräume auch die überdachten Obstkulturen zur Nahrungssuche und wurden weiterhin bei der Ansitzjagd am Rand der Versuchsflächen gesichtet. Zudem wurde der Turmfalke beim Ansitzen unter der Folien-Netz-Überdachung der Kirschkultur sowie beim Fressen auf dieser Überdachung sitzend beobachtet. Für die Insektivoren-Gilde wurden 52 Vogelarten nachgewiesen. Die Streuobstfläche im NSG wies die höchste Artenzahl von 40 auf, gefolgt von der Apfelkontrollfläche mit 27 Arten. Die Apfelversuchsfläche wies dagegen eine geringere Artenzahl von 19 auf, während die Artenzahlen beider Kirschkulturen mit 19 und 18 annähernd gleich gewesen sind. Die zehn häufigsten Arten waren in Reihenfolge ihrer Abundanz Kohlmeise, Star, Rabenkrähe, Amsel, Mauersegler, Bachstelze, Blaumeise, Buchfink, Feldlerche und Stieglitz. Insektivore Vögel wurden überwiegend nahrungssuchend am Boden und in Bäumen der Flächen oder beim Revierverhalten wie Singen, Rufen und Vigilanz auf Sitzwarten Zäunen, Pfählen sowie Kulturschutzeinrichtungen beobachtet. Die intensive Landnutzung der Obstkulturen führte im Vergleich zur naturnahen Streuobstfläche im NSG sowohl auf der Apfel- als auch auf der Kirschkontrollfläche zu einer hochsignifikant geringeren monatlichen Vogelartenzahl. Eine signifikant niedrigere Abundanz der insektivoren Vögel wies jedoch nur die Kirschkontrollfläche auf. Es wurden negative Effekte der intensiven Landnutzung auf die monatliche Abundanz von Gartenrotschwanz, Amsel und Blaumeise nachgewiesen, welche in den Obstkulturen hochsignifikant seltener beobachtet wurden. Der Einsatz von Kulturschutzeinrichtungen führte lediglich beim Hagelschutznetz zu einer zusätzlichen signifikanten Verringerung der monatlichen Vogelartenzahl. Die Folien-Netz-Kombination zeigte keinen signifikanten Einfluss auf die Vogeldiversität. Die Gesamtabundanz der Insektivoren-Gilde blieb in beiden Obstkulturen von Kulturschutzeinrichtungen unbeeinflusst. Abundanzen einzelner Arten zeigten jedoch abweichende Ergebnisse: Die Ringeltaube wurde unter dem Hagelschutznetz der Apfelkultur im Vergleich zur Kontrollfläche gar nicht beobachtet. Die Kohlmeise kam unter der Folien-Netz-Überdachung der Kirschkultur signifikant seltener vor, während der Wiedehopf hier etwa zehnmal häufiger vorkam als auf der Kirschkontrollfläche und der Streuobstfläche im NSG Höllenberg. Entscheidender Faktor für die starke Nutzung der Kirschkulturen waren für den Wiedehopf die vorhandenen vegetationsfreien Bodenbereiche, in denen diese Art bevorzugt nach Nahrungsinsekten sucht. Störungen durch die bei Wind laut flatternde Folienüberdachung auf darunter nahrungssuchende Wiedehopfe wurden nicht beobachtet.
Für die Arthropoden-Gilde wurden 185963 Individuen aus 18 Gruppen gefangen. Der Großteil von 79% dieser Individuen ließ sich Springschwänzen, Ameisen, Zweiflüglern oder Käfern zuordnen. Weitere 20% verteilten sich auf Webspinnen, Asseln, Hautflügler, Milben, Doppelfüßer, Weberknechte, Schnabelkerfe und Ohrwürmer. Die restlichen sechs Arthropodengruppen stellten den restlichen Individuenanteil von 0,9%. Hinsichtlich der determinierten 12910 Käfer-Imagines aus 403 Arten waren Artenzahl, Diversität sowie Anzahl seltener Arten und Habitatspezialisten sandiger Lebensräume in allen drei Untersuchungsjahren auf der naturnahen Streuobstfläche im NSG Höllenberg am höchsten. Die über Bodenfallen ermittelte Arthropoden-Trockenbiomasse lag je nach Fläche bei 9 bis 26 Gramm pro Jahr und die über Flugfallen ermittelte Arthropoden-Trockenbiomasse bei 0,6 bis 4,8 Gramm pro Jahr. Obwohl im Mittel jährlich 5,8 Pestizidbehandlungen in den Kirschkulturen sowie 14,6 Behandlungen in den Apfelkulturen durchgeführt wurden und Insektizide dabei anteilig bis zu 57% ausmachten, konnte kein Einfluss der intensiven Landnutzung mit dem Einsatz von Pestiziden auf die Arthropoden-Trockenbiomasse nachgewiesen werden. Kulturschutzeinrichtungen zeigten ebenfalls keinen Einfluss auf die Arthropoden-Trockenbiomasse.
Diese biozönotische Risikoanalyse belegt, dass der Einsatz von Kulturschutzeinrichtungen zumindest bei Hagelschutznetzen langfristig nachweisbare negative Effekte auf die Diversität von insektivoren Vögeln bewirken kann, welche über die vorhandenen negativen Folgen der intensiven Landnutzung in Obstkulturen hinausgehen. Da intensiv bewirtschaftete Obstkulturen bereits ohne Kulturschutzeinrichtungen zu einer Verarmung der lokalen Biozönose führen, sollte aus ökologischer Sicht vor der Errichtung von Kulturschutzeinrichtungen verlässlich abgewogen werden, ob der zusätzliche Verlust an Biodiversität durch die Verbesserung von Flächenstrukturen der Obstkulturen kompensierbar ist.
Systemische Neonicotinoide gehören zu den weltweit meist genutzten Insektiziden. Neben ihrer Anwendung in der Landwirtschaft werden sie zunehmend zur Bekämpfung von Baumschädlingen in
der Forstwirtschaft eingesetzt. Die im Herbst von Laubbäumen fallenden Blätter können allerdings
immer noch Neonicotinoide enthalten. Gelangen diese kontaminierten Blätter schließlich in
nahegelegene Bäche werden die wasserlöslichen Neonicotinoide wieder mobilisiert und somit
potenziell aquatische Nicht-Zielorganismen über die Wasserphase exponiert. Obwohl der Standardtestorganismus Daphnia magna (Crustacea; Cladocera) relativ unempfindlich gegenüber
Neonicotinoiden ist, sind viele andere aquatische Invertebraten bereits bei einer Exposition im ng/L- bis niedrigem μg/L-Bereich negativ beeinträchtigt. Besonders laubzersetzende Invertebraten (= Shredder) könnten, zusätzlich zu einer Exposition über die Wasserphase, durch den Eintrag von Neonicotinoid-kontaminiertem Laub in ein Fließgewässer negativ beeinträchtigt werden, da Laub für sie eine essentielle Nahrungsquelle darstellt. Jedoch erhielt dieser Expositionspfad im Zusammenhang mit aquatischen Shreddern und Neonicotinoid-kontaminiertem Pflanzenmaterial bisher kaum Aufmerksamkeit seitens der Forschung und findet keine Berücksichtigung in der aquatischen Umweltrisikobewertung. Das Hauptziel dieser Arbeit war daher (1) Neonicotinoidrückstände in Blättern zu quantifizieren sowie für Shredder relevante Expositionswege zu identifizieren, (2)
ökotoxikologische Effekte einer Exposition über die Wasserphase sowie über die Nahrung für zwei
Modell-Shredder Gammarus fossarum (Amphipoda) und Chaetopteryx villosa (Insecta) zu untersuchen, und schließlich (3) biotische und abiotische Faktoren zu betrachten, welche eine Exposition unter Feldbedingungen potenziell beeinträchtigen könnten.
Im Rahmen dieser Arbeit konnten Rückstände der Neonicotinoide Imidacloprid, Thiacloprid und
Acetamiprid in Blätter behandelter Schwarzerlen quantifiziert werden. Ein entwickeltes „Worst-Case
Modell“ prognostizierte niedrige Imidaclopridwasserkonzentrationen für einen Bach in welchen Imidacloprid-kontaminierte Blätter eingetragen werden. Jedoch konnte mit Hilfe des Modells die Aufnahme über die Nahrung als ein für aquatische Shredder relevanter Expositionspfad identifiziert werden. Der Konsum von Neonicotinoid-kontaminierten Blättern führte, bei gleichzeitiger Exposition über die Wasserphase (= kombinierte Exposition), in beiden Testorganismen zu stärkeren Effekten als die alleinige Exposition über die Wasserphase. Des Weiteren gelang es in einem weiteren Laborexperiment die beiden Expositionswege mittels einer Durchflussanlage zu separieren. Hierbei führte die separate Exposition von G. fossarum sowohl über die Nahrung (= Konsum von Thiaclopridkontaminierten Blättern) als auch über die Wasserphase zu vergleichbaren Effektgrößen. Zudem ließen sich die unter einer kombinierten Exposition beobachteten Effektgrößen weitestgehend mit dem Referenzmodell der „Unabhängigen Wirkung“ vorhersagen, was eine Wirkung auf unterschiedliche molekulare Zielorte vermuten lässt. Die durch Imidacloprid ausgelöste toxischen Effekte auf G. fossarum konnten schließlich durch eine Behandlung der Blätter mit UV-Strahlung (repräsentativ für Sonnenlicht) sowie durch Leaching in Wasser reduziert werden. Jedoch waren beide Shredder-Spezies nicht dazu in der Lage aktiv eine Aufnahme von Neonicotinoiden über die Nahrung zu vermeiden. Daher geht aus dieser Arbeit die Empfehlung hervor, bereits während der Registrierung von systemischen Pestiziden, auf nahrungsbedingte Effekte zu testen und dadurch aquatische Shredder als auch assoziierte Ökosystemfunktionen (z.B. Laubabbau) zu schützen.
Organische Substanzen spielen eine wichtige Rolle bei der Bildung von stabilen Bodenstrukturen. Dabei sind maßgeblich deren physikochemischen Eigenschaften, Wechselwirkungen mit der mineralischen Bodenphase und die daraus resultierende Boden-Wasser Interaktionen von Bedeutung. Dennoch weiß man nur wenig über zugrunde liegenden Mechanismen der Partikelverkittung durch organische Substanzen und inwieweit deren Quellung unter Bildung von interpartikulären Hydrogelen die bodenstrukturelle Stabilität beeinflusst. Bis heute existiert kein mechanistisches Model, dass deren Quellung im Boden beschreibt und daraus resultierende Boden-Wasser Interaktionen in Zusammenhang mit bodenstruktureller Stabilität bringt. Dies ist maßgeblich auf das Fehlen bzw. eine unzureichende Adaptierung geeigneter Testmethoden zur Erfassung von Quellungsprozessen interpartikulärer Hydrogele in Böden zurückzuführen.
In der vorliegenden Dissertation wurde die 1H NMR Relaxometrie mit mikro- und makrostrukturellen Bodenstabilitätstests kombiniert um Boden-Wasser Interaktionen mit der strukturellen Stabilität wassergesättigter und ungesättigter, feuchter Böden zu verknüpfen. Der Erste Teil der Arbeit erfasste Potential und Grenzen der 1H-NMR Relaxometry zur Erfassung unterschiedlicher Wasserpopulationen und struktureller Stabilisierungsmechanismen Boden. Im zweiten Teil der Arbeit wurde die 1H-NMR Relaxometrie zur Untersuchung von Quellungsprozessen einer hydrogel-bildenden organischen Modelsubstanz in Modelböden unterschiedlicher Komplexität eingesetzt. Mittels der Kombination mit Bodenrheologie sollten die zugrundeliegenden Mechanismen identifiziert werden, die im Zusammenhang mit der strukturellen Bodenstabilität stehen. Im letzten Teil der Arbeit wurden die zuvor gesammelten Erkenntnisse auf einen humosen, landwirtschaftlichen Boden übertragen und die Effekte einzelner organischer und mineralischer Bo-denbestandteile auf Boden-Wasser-Interaktionen und bodenstrukturelle Stabilität mittels Dichtefraktionierung noch detaillierter erfasst.
Die zunehmende Komplexität der Experimente ermöglichten eine Brücke zwischen den physikochemischen Eigenschaften interpartikulären Hydrogels und bodenstruktureller Stabilität zu schlagen und ein Modell für die zugrunde liegenden Prozesse für wassergesättigte und ungesättigte, feuchte Böden abzuleiten: Während gequollene Tonpartikel die Reibung zwischen Bodenpartikeln erniedrigen und somit die bodenstrukturelle Stabilität herabsetzen, zeigen gequollen Hydrogelstrukturen den gegenteiligen Effekt und erhöhen die bodenstrukturelle Stabilität. Dies ist zurückzuführen auf die Bildung eines flexiblen und viskosen Polymernetzwerkes, welches mineralische Bodenpartikel über weite Bereiche verbindet und eine deutlich höhere Stabilität als Poren- oder Kapillarwasser aufweist. Es zeigte sich zudem, dass die bodenstrukturelle Stabilität mit steigender Viskosität des interpartikulären Hydrogels zunimmt und dabei von der Inkubationszeit, Bodentextur, Zusammensetzung der Bodenlösung und externen Faktoren wie Bodenfeuchtedynamik und landwirtschaftliche Bewirtschaftungsweisen abhängt. Die stabilisierende Wirkung von interpartikulärem Hydrogel wird zusätzlich durch Tonpartikeln verstärkt, was maßgeblich aus Polymer-Ton-Interaktionen und der Aufnahme von Tonpartikeln in das Hydrogelnetzwerk resultiert. Zusätzlich konnte gezeigt werden, dass die gleichzeitige Quellung von Hydrogelstrukturen und Tonpartikeln und der dabei vorhandenen Konkurrenz um verfügbares Wasser und freien Raum zu einer gegenseitigen Quellungshemmung führen. Somit erhöhen Polymer-Ton-Interaktionen nicht nur die Viskosität des interpartikulären Hydrogels und damit dessen Stabilisierungspotential, sondern erniedrigen zudem die Quellung von Tonpartikeln und damit deren negativen Effekte auf die bodenstrukturelle Stabilität. Das Wissen um diese zugrunde liegenden Prozesse erweitert das Verständnis zur Bildung stabiler Bodenstrukturen und ermöglicht das Ergreifen geeigneter, nachhaltiger Bodenbewirtschaftungsmaßnahmen. Die zudem aufgezeigten Limitierungen des mechanistischen Modells sollen Ansatzpunkte für weitere Forschungs- und Optimierungspotentiale aufzeigen.
Entrepreneurship plays a vital role in scientific literature and in public debates. Especially in these hightech and digitized times it happens more and more frequently that young entrepreneurs with a good idea make the breakthrough and set up an established company. Basically, there are an increasing number of start-ups and a trend towards independence. The economy of a country depends on young entrepreneurs in order to remain economically competitive in international competition. It follows that young entrepreneurs must be encouraged and supported. This support is expressed in various stages of foundation and through various fields of action. In the meantime, there are many offers for start-up support. These networks satisfy different fields of action along a foundation. However, a structured overview of these networks on which a young founder can orient himself and gain easily access to the offers of the networks, is missing until then.
This work attempts to present these offers clearly on a map and to categorize and present the commitment in the respective fields of action. In addition to this main objective, the following three key questions are investigated and answered in this work:
1. How can the Entrepreneurship Networks be assigned to the respective fields of action of Entrepreneurship Education?
2. What is the benefit of such a classification for potential entrepreneurs in detail?
3. Are these Entrepreneurship networks missing an important step? Might they improve their offer? Does the value chain cover every need a young entrepreneur might have?
For this purpose, the respective fields of action of the networks are first separated from each other along a founding and defined individually. Subsequently, a combination of quantitative and qualitative approaches was used to filter and analyze the contents of the websites of the networks. The results of this investigation were transformed in a classification
The aim of this work is to produce a map that displays the existing networks in the world clearly. The map also contains information that is more detailed and the classifica-tion of the networks in the respective fields of action.
This Master Thesis is an exploratory research to determine whether it is feasible to construct a subjectivity lexicon using Wikipedia. The key hypothesis is that that all quotes in Wikipedia are subjective and all regular text are objective. The degree of subjectivity of a word, also known as ''Quote Score'' is determined based on the ratio of word frequency in quotations to its frequency outside quotations. The proportion of words in the English Wikipedia which are within quotations is found to be much smaller as compared to those which are not in quotes, resulting in a right-skewed distribution and low mean value of Quote Scores.
The methodology used to generate the subjectivity lexicon from text corpus in English Wikipedia is designed in such a way that it can be scaled and reused to produce similar subjectivity lexica of other languages. This is achieved by abstaining from domain and language-specific methods, apart from using only readily-available English dictionary packages to detect and exclude stopwords and non-English words in the Wikipedia text corpus.
The subjectivity lexicon generated from English Wikipedia is compared against other lexica; namely MPQA and SentiWordNet. It is found that words which are strongly subjective tend to have high Quote Scores in the subjectivity lexicon generated from English Wikipedia. There is a large observable difference between distribution of Quote Scores for words classified as strongly subjective versus distribution of Quote Scores for words classified as weakly subjective and objective. However, weakly subjective and objective words cannot be differentiated clearly based on Quote Score. In addition to that, a questionnaire is commissioned as an exploratory approach to investigate whether subjectivity lexicon generated from Wikipedia could be used to extend the coverage of words of existing lexica.