Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (273)
- Diplomarbeit (196)
- Masterarbeit (187)
- Studienarbeit (137)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1136)
- Englisch (544)
- Mehrsprachig (4)
- Spanisch (2)
Volltext vorhanden
- ja (1686) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (145)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Previous research revealed that teachers hold beliefs about gifted students combining high intellectual ability with deficits in non-cognitive domains, outlined in the so-called disharmony hypothesis. Since teachers’ beliefs about giftedness can influence which students they identify as gifted, the empirical investigation of beliefs is of great practical relevance. This dissertation comprises three research articles that investigated teacher beliefs about gifted students’ characteristics in samples of pre-service teachers using an experimental vignette approach. Chapter I starts with a general introduction into beliefs, and presents the research aims of the present dissertation. The first article (Chapter II) focused on the interaction of beliefs about giftedness and gender in a sample of Australian pre-service teachers and tested if social desirability occurred when using the vignette design. Beside evidence for beliefs in line with the disharmony hypothesis, results revealed typical gender stereotypes. However, beliefs about giftedness appeared not to be gender specific and thus, to be similar for gifted girls and boys. The vignette approach was found to be an adequate design for assessing teacher beliefs. The second article (Chapter III) investigated teacher beliefs and their relationship to motivational orientations for teaching gifted students in a cross-country sample of German and Australian pre-service teachers. Motivational orientations comprise cognitive components (self-efficacy) and affective components (enthusiasm). Findings revealed beliefs in the sense of the disharmony hypothesis for pre-service teachers from both countries. Giftedness when paired with beliefs about high maladjustment was found to be negatively related to teachers’ self-efficacy for teaching gifted students. The third article (Chapter IV) examined the role of teachers’ belief in a just world for the formation of beliefs using a sample of Belgian pre-service teachers. It was found that the stronger pre-service teachers’ belief in a just world was, the more they perceived gifted students’ high intellectual ability as unfair and thus, neutralized that injustice by de-evaluating students’ non-cognitive abilities. In a general discussion (Chapter V), findings of the three articles are combined and reflected. Taken together, the present dissertation showed that teacher beliefs about gifted students’ characteristics are not gender specific, generalizable over countries, negatively related to teacher motivation and can be driven by fairness beliefs.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
In dieser Forschungsarbeit werden Kriterien und Anforderungen für eine erfolgreiche Kollaborationsplattform zur Verbesserung der Kommunikation zwischen weltweit ver-teilten wissenschaftlichen Instituten der Eisenbahnbranche erarbeitet und bewertet. Hierzu wird zunächst eine Einführung in Kollaborationsplattformen und deren aktuelle Marktsituation und /-trends gegeben. Das daraus resultierende Wissen wird für eine qualitative Inhaltsanalyse in Form von Interviews mit der Zielgruppe der geplante Kol-laborationsplattform genutzt. Aufbauend auf dem Grundlagenwissen und der durchge-führten Interviews werden anschließend Hypothesen zur Kommunikation in wissen-schaftlichen Instituten gebildet. Diese Hypothesen dienen der Erstellung eines Frage-bogens für eine quantitative Befragung der Zielgruppe. Die folgende Analyse von allgemeinen Kollaborationsplattformen und solchen der Eisenbahnbranche gibt weitere Erkenntnisse und beschreibt Anforderungen für eine erfolgreiche Konzeption einer Kollaborationsplattform.
Eine anschließend geplante Konzeption dieser Plattform kann im Rahmen dieser Forschungsarbeit aufgrund fehlender aussagekräftiger Ergebnisse und Informationen nicht durchgeführt werden. Die geplante quantitative Inhaltsanalyse ist für den gewählten Rahmen zu aufwendig gewesen. In dieser Forschungsarbeit wird die quantitative Befragung für folgende Forschungsarbeiten in diesem Themenfeld vorbereitet. Weitere Arbeitsergebnisse werden für folgende Forschungsarbeiten ausgewertet und bereitgestellt.
Invasive species often have a significant impact on the biodiversity of ecosystems and the species native to it. One of the worst invaders worldwide is Aphanomyces astaci, the causative agent of the crayfish plague, an often fatal disease to crayfish species not native to North America. Aphanomyces astaci originates from North America and was introduced to Europe in the midst of the 19th century. Since then, it spread throughout Europe diminishing the European crayfish populations. The overall aim of this thesis was to evaluate the threat that A. astaci still poses to European crayfish species more than 150 years after its introduction to Europe. In the first part of the thesis, crayfish specimens, which are available in the German pet trade, were tested for infections with A. astaci. Around 13% of the tested crayfish were clearly infected with A. astaci. The study demonstrated the potential danger the pet trade poses for biodiversity through the import of alien species and their potential pathogens, in general. In the second part of the thesis, the A. astaci infection prevalence of crayfish species in wild populations in Europe was tested. While the stone crayfish, Austropotamobius torrentium, showed high susceptibility to different haplogroups of A. astaci, the narrow-clawed crayfish, Astacus leptodactylus, was able to survive infections, even by haplogroup B, which is considered to be highly virulent. In the last part of the thesis, A. astaci was traced back to its original distribution area of North America. While the crayfish plague never had such a devastating effect on crayfish in North America as it had in Europe, the reasons for the success of invasive crayfish within North America are not yet fully understood. It is possible that A. astaci increases the invasion success of some crayfish species. Several populations of the rusty crayfish, Orconectes rusticus, in the Midwest of North America were confirmed to be infected with A. astaci and a new genotype was identified, possibly indicating that each crayfish host is vector of a unique A. astaci genotype, even in North America. Overall, the present thesis provides evidence that A. astaci is still a major threat to the crayfish species indigenous to Europe. Crayfish mass mortalities still occur in susceptible crayfish species like A. torrentium even 150 years after the first introduction of A. astaci. While there are some indications for increased resistances through processes of co-evolution, the continuous introduction of crayfish species to Europe threatens to cause new outbreaks of the crayfish plague through the parallel introduction of new, highly virulent A. astaci strains.
Gefährdete Weltmacht USA
(2017)
Ziele und Befunde der Arbeit
Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die „transaktionale Führung Trumps“(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer „Grand Strategy“-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren „amerikanischen Systems“ gleichzusetzen. Die Implementierung dieses Systems erfolgte als „Lernstunde zweier Weltkriege“ auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im „American way of life“ entfalten konnten.
Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen „US-Konservativen Revolution“ auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von „Grand Strategy“-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der „Grand Strategy“-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der „imperial presidency“(4) bzw. Einhegung des Systems von „checks and balances“ - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar.
Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren „amerikanischen Systems“ unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen.
Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster „Battleship America“ vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird.
Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet.
Struktur der Arbeit
Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich („structured focussed comparison“) unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum „process-tracing“ in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten.
Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama.
Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren „US-Grand Strategy“-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer „Grand Strategy“-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt.
In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert.
Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten „Revolution im Militärwesen“ modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für „alliances of choice“ innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der „bipolaren Nato“ die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner.
Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien.
Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren „amerikanischen Systems“ sowie der Etablierung „idealistischer, liberaler“ „Grand Strategy“-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas „smart power“(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als „nicht verhandelbar“ postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar.
Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln.
Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte „Friedensdividende“ und das durch Präsident Clinton postulierte „age of hope“ kaum spürbar wurden.
Fußnoten
(1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden.
(2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das „international financial leadership, self-selected at Davos“ bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago.
(3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon.
1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: „Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man“. Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu.
(4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston.
(5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als „Natotransformationspositionen“ bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft.
(6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München.
Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
Unterschiedliche Quellen (Print-Medien, Fernsehberichte u. Ä.) berichten immer wieder davon, dass es mit der Datenschutzkompetenz bei Kindern und Jugendlichen schlecht bestellt ist. Daher ist dem Thema Datenschutz im Informatikunterricht eine besondere Bedeutung zuzuschreiben.
Im Rahmen der Dissertation von Herrn Hug wird ein Datenschutzkompetenzmodell [Quelle INFOS17] entwickelt, anhand dessen die Datenschutzkompetenz von Schülerinnen und Schülern im Altern von 10 bis 13 Jahren gemessen werden kann.
Im Rahmen dieser Masterarbeit werden existierende Unterrichtsmaterialien zum Thema Datenschutz gesammelt und dazu eine Unterrichtsreihe entwickelt. Hierbei werden auch eigene Zugänge aufzeigt, um ein kohärentes und abgeschlossenes Projekt zu entwerfen, bei dem aktuelle Gefahren für Schülerinnen und Schüler aufgezeigt werden. Ziel ist es, dass die Schülerinnen und Schüler dazu befähigt werden, ihr Verhalten bezüglich Datenschutz besser einzuschätzen und verantwortungsvoller mit ihren persönlichen Daten umzugehen. Im Rahmen eines Feldversuches in einer 6. Klasse eines Gymnasiums wurde die Unterrichtsreihe erprobt.
Die im Rahmen dieser Masterarbeit durchgeführte Analyse von Ernährungsumstellungen auf die vegane Ernährung in Form von vier Portraits lotet mit ihrer interdisziplinären Perspektive aus Gastrosophie, Ethnologie und Leibphilosophie die soziokulturellen Aspekte dieser Transmissionsprozesse aus. Dazu gehören der zivilisatorisch erlernte Umgang mit Nahrung, das Umsetzen und Reflektieren sinnlicher Wahrnehmungen im Ernährungsprozess und die Prägung von Relationen zwischen Essendem und Zu-Essendem. Geleitet wird die Analyse dabei von der Forschungsfrage: „Welche leiblich sinnlichen Wahrnehmungen geben den Anstoß zu einer Ernährungsumstellung und wie begleiten diese den Prozess der Umstellung?“. Damit gibt die Frage den Fokus auf das (leibliche) Wahrnehmungsvermögen des Menschen vor und begrenzt Ernährung bewusst nicht auf ihre physiologische Funktion der Energiegewinnung. Dadurch flicht sie sich in den Diskurs um den cultural turn in der Ernährungswissenschaft ein und zielt weg von der metabolischen Durchmessung des Essens, hin auf das Verständnis von Ernährung als Praxis des Sich-Einverleibens-von-Anderem – Essen als Vollzug von Beziehungen. Das Sich-Ernähren wird damit als sozial geprägter und leiblich vermittelter Erfahrungsvorgang sichtbar, der über das Geschmackserlebnis hinaus durch Betroffenheitserfahrung konstituiert wird. Durch das Zusammenbringen philosophischer Perspektiven, wie die der Gastrosophie Harald Lemkes, die Essen u. a. auch als Selbstbestimmung denkt, und soziologischen Theorien, wie die des Habitus-Konzepts nach Pierre Bourdieu, wird deutlich, wie die Wahrnehmungspraxis und -fähigkeit des Menschen, in ihrem leiblichsinnlichen Aspekt, die Verhaltensbestimmung im Umgang mit Nahrung und deren Quellen beeinflusst. Die vier Portraits entstanden während einer sechsmonatigen ethnographischen Feldforschung und stellen anonymisiert die Motivation, den Verlauf und das Konfliktthema der jeweiligen Ernährungsumstellung dar. Die Portraits sind sehr individuell und zeigen auf, wie und warum beispielsweise die gesundheitliche Selbstsorge oder das empathische Mitleiden mit Nutztieren Veränderungen oder Tabuisierungen im Ernährungshandeln anstoßen.
Fachdidaktische und pädagogische Kompetenzen angehender Mathematiklehrkräfte für die Realschule
(2019)
Studien zur Wirksamkeit der Ausbildung von Lehrerinnen und Lehrern sind in der Regel fragebogenbasiert. In der vorliegenden Untersuchung wird ein anderer Ansatz gewählt, um die Kompetenzen angehender Mathematiklehrkräfte zu erheben und zu evaluieren. Die Studie untersucht anhand der unterrichtlichen Performanz, welche Kompetenzen Anwärterinnen und Anwärter in ihrer praktischen Ausbildung erworben haben. Der Analyse liegen 137 anonymisierte Niederschriften zu benote-ten Lehrproben von Anwärterinnen und Anwärtern im Fach Mathematik zugrunde. Diese bilden die Ausbildungsjahrgänge von 2004 bis 2011 ab. Die Anwärterinnen und Anwärter werden unterrichtspraktisch anhand der Niederschriften in Anlehnung an eine qualitative Inhaltsanalyse auf ihre Kompetenzausprägungen hin getestet. Dies erfolgt schwerpunktmäßig in den Bereichen Fachdidaktik, Fachmethodik, Classroom-Management und Gesprächsführung. Im Verlauf der Untersuchung wird deutlich, dass die Teilneh-mergruppe vor allem Stärken im methodischen Bereich hat. Hier können durchgehend gute Kompetenzausprägungen festgestellt werden. Über den gesamten Erhebungszeitraum zeigen sich hingegen in den Bereichen Classroom-Management und Gesprächsführung deutliche Defizite. Die fachdidaktischen Kompetenzen der angehenden Lehrkräfte entwickeln sich negativ: Ist zu Beginn der Erhebung noch etwa die Hälfte der Anwärterinnen und Anwärter im Bereich der Fachdidaktik zufriedenstellend einzustufen, gilt das im letzten Erhebungsjahrgang nur noch für knapp ein Fünftel der Probandinnen und Probanden. Es kann gezeigt werden, dass eine gute Notenfestsetzung eng mit den er-forderlichen Kompetenzen in der Fachdidaktik zusammenhängt.
Die vorliegende Studie bestätigt im Bereich der Fachdidaktik die Ergebnisse jener Studien, die auf Fragebögen basieren.
Es konnte zudem ein statistischer Zusammenhang zwischen den fachdidaktischen Fähigkeiten und den Steuerungskompetenzen hergestellt werden.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
Social Network of Business Objects (SoNBO) ist ein Konzept, um im Unternehmen in heterogenen Systemlandschaften verteilte Informationen zu aggregieren und gesammelt auf einer Benutzeroberfläche zur Verfügung zu stellen. Die zentrale Idee ist dabei, die Unternehmensinformationen als Netzwerk (auch: Graph) zu verstehen. Es gibt bereits einen SoNBO-Explorer, der die Informationen eines Customer Relationship Management-Systems (CRM-System) integriert. Die Herausforderung bei der Konfiguration einer solchen Anwendung besteht darin, das Unternehmensnetzwerk zu identifizieren, und auf diese Weise heraus zu finden, wie die gespeicherten Daten im Unternehmen verknüpft sind. Dafür ist ein Tool hilfreich, das das Unternehmensnetzwerk visualisieren kann. In dieser Arbeit wird ein selbstentwickeltes Tool (SoNBO-Graph-App) als Prototyp vorgestellt, das diese Visualisierung ermöglicht. Mit dieser Anwendung kann die Konfiguration des Netzwerks im SoNBO-Explorer bestehend aus den zusammengeführten Daten unterstützt werden, indem diese Konfiguration auf graphischer Ebene durchgeführt wird. Der Prototyp ist an zwei verschiedenen Datenbanken eines Customer Relationship Management (CRM) Systems angebunden und ermöglicht die Aggregation dieser Daten, sodass sie in einer Übersicht zusammenhängend als Graph dargestellt werden. Dadurch erhält der Anwender einen besseren Überblick und ein Verständnis über den Zusammenhang der unterschiedlichen Daten. Diese Arbeit ist Teil des Langzeitforschungsprojekts SoNBO, dessen Ziel ein Konzept zur Integration von Informationen verschiedener geschäftlicher Anwendungssysteme ist.
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Student misbehavior and its treatment is a major challenge for teachers and a threat to their well-being. Indeed, teachers are obliged to punish student misbehavior on a regular basis. Additionally, teachers’ punishment decisions are among the most frequently reported situations when it comes to students’ experiences of injustice in school. By implication, it is crucial to understand teachers’ treatment of student misbehavior vis-à-vis students’ perceptions. One key dimension of punishment behavior reflects its underlying motivation and goals. People generally intend to achieve three goals when punishing misbehavior, namely, retribution (i.e., evening out the harm caused), special prevention (i.e., preventing recidivism of the offender), and general prevention (i.e., preventing imitation of others). Importantly, people’s support of these punishment goals is subject to hierarchy and power, implying that teachers’ and students’ punishment goal preferences differ. In this dissertation, I present three research projects that shed first light on teachers’ punishment and its goals along with the students’ perception of classroom intervention strategies pursuing these goals. More specifically, I first examined students’ (i.e., children’s) general support of each of the three punishment goals sketched above. Furthermore, I applied an attributional approach to understand and study the goals teachers intend to achieve when punishing student misbehavior. Finally, I investigated teachers’ and students’ support of the punishment goals regarding the same student misbehavior to directly compare their views on these goals and reactions pursuing them. In sum, the findings show that students generally prefer retribution and special prevention to general prevention, whereas teachers prefer general prevention and special prevention to retribution. This ultimately translates into a "mismatch" of teachers and students in their preferences for specific punishment goals, and the findings suggest that this may indeed enhance students’ perception of injustice. Overall, the results of the present research program may be valuable for the development of classroom intervention strategies that may reduce rather than enhance conflicts in student-teacher-interactions.
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Our work finds the fine grained edits in context of neighbouring tokens in Wikipedia articles. We cluster those edits according to similar neighbouring context. We encode neighbouring context into vector space using word vectors. We evaluate clusters returned by our algorithm on extrinsic and intrinsic metric and compare it with previous work. We analyse the relation between extrinsic and intrinsic measurements of fine grained edit tokens.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Zum Inhalt:
Die Dissertation ist in einem empirisch-qualitativen Forschungssetting eingebettet, bei der das Team-Teaching als Unterrichtsmethode im Forschungsfokus steht. Die Erhebung des empirischen Datenmaterials erfolgt einerseits mittels teilnehmender Beobachtung im Forschungsfeld und andererseits durch ein Gruppeninterview, das mit Lehrkräften geführt wird, die über einen gewissen Beobachtungszeitraum Erfahrungen mit der Unterrichtsmethode des Team-Teaching gesammelt haben. Für die hier zu Grunde gelegte Feldforschung wird das „theoretical sampling“ zum Einsatz kommen, das 1967 von Glaser und Strauss im Rahmen einer empirischen Untersuchung begründet worden ist.
Zum Aufbau:
In der Einleitung wird das Forschungsinteresse, der Forschungsstand und die zentrale Forschungsfrage der Dissertation beschrieben. Im zweiten Kapitel folgt der theoretische Teil mit einer differenzierten Definition des Team-Teachings als Unterrichtsmethode. Es folgt eine allgemeine Definition zum Unterricht, um die spezifischen Merkmale des Team-Teachings differenziert herausarbeiten zu können. Die empirischen Daten werden im Rahmen einer teilnehmenden Beobachtung im Unterricht der Oberstufe einer Förderschule mit dem Förderschwerpunkt Lernen und sozial-emotionale Entwicklung erhoben. Deshalb sind im Theorieteil der Förderschwerpunkt und die curricularen Aspekte zum Förderschwerpunkt dargestellt. Die Bedeutung der Unterrichtsmethode des Team-Teachings für das Unterrichtssetting in einer Förderschule mit dem sozial-emotionalem Förderschwerpunkt ist ebenfalls im Theorieteil verortet.
Im dritten Kapitel werden die qualitativen und quantitativen Erhebungsinstrumente beschrieben und Hypothesen formuliert. Die Darstellung der Methoden zur Aufbereitung des Datenmaterials ist im vierten Kapitel verortet. Die Interpretation der Forschungsergebnisse erfolgt im fünften Kapitel. Die qualitative und quantitative Datenauswertung des empirischen Datenmaterials ist im sechsten Kapitel dargestellt. Die Dissertation schließt im siebten Kapitel mit einen Fazit und Ausblick.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Das „Templerhaus“ in Boppard.
Kunsthistorische Untersuchung eines spätromanischen Baudenkmals
(2019)
Die vorliegende Bachelorarbeit untersucht die Namens-, Besitz- und Nutzungsgeschichte des sogenannten Templerhauses, einem massiven Profanbau der Stauferzeit in Boppard (Rheinland-Pfalz). Nach einer Beschreibung des heutigen Erscheinungsbildes und der Erarbeitung früherer Zustände erfolgt ein stilkritischer Vergleich mit ausgewählten Beispielen der Umgebung, der Rekonstruktionsversuch früherer Bauphasen und eine Einordnung in den städtischen Kontext.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Navigation is a natural way to explore and discover content in a digital environment. Hence, providers of online information systems such as Wikipedia---a free online encyclopedia---are interested in providing navigational support to their users. To this end, an essential task approached in this thesis is the analysis and modeling of navigational user behavior in information networks with the goal of paving the way for the improvement and maintenance of web-based systems. Using large-scale log data from Wikipedia, this thesis first studies information access by contrasting search and navigation as the two main information access paradigms on the Web. Second, this thesis validates and builds upon existing navigational hypotheses to introduce an adaptation of the well-known PageRank algorithm. This adaptation is an improvement of the standard PageRank random surfer navigation model that results in a more "reasonable surfer" by accounting for the visual position of links, the information network regions they lead to, and the textual similarity between the link source and target articles. Finally, using agent-based simulations, this thesis compares user models that have a different knowledge of the network topology in order to investigate the amount and type of network topological information needed for efficient navigation. An evaluation of agents' success on four different networks reveals that in order to navigate efficiently, users require only a small amount of high-quality knowledge of the network topology. Aside from the direct benefits to content ranking provided by the "reasonable surfer" version of PageRank, the empirical insights presented in this thesis may also have an impact on system design decisions and Wikipedia editor guidelines, i.e., for link placement and webpage layout.
Im Fokus der Arbeit steht die Frage des Kompetenzzuwachses in und durch außerunterrichtliche Sport- und Bewegungsangebote an rheinland pfälzischen Ganztagsschulen, die von Trainerinnen und Trainern angeboten und durchgeführt werden. Um dieser Fragestellung nachzugehen, wurden zunächst Schul- und Unterrichtsqualitätsmodelle auf das außerunterrichtlichen Sport- und Bewegungsangebot übertragen, um das zu untersuchende Setting im Kontext der rheinland-pfälzischen Ganztagsschullandschaft zu verorten und mögliche Einflussfaktoren und Wechselwirkungen vor dem Hintergrund des Kompetenzzuwachses der Teilnehmerinnen und -nehmer aufzuzeigen. Dem nachgestellt wurden während der Darlegung theoretischer Vorüberlegungen, wie z.B. Aspekte zum außerschulischen Bildungsverständnis und Sport und Bewegung in den Erziehungswissenschaften, Kategorien und Kriterien ermittelt, deren Nachweis den Kompetenzzuwachs der Schülerinnen und Schüler stark vermuten lassen. Die Untersuchungsleitlinie dieser Arbeit wurde ein qualitatives Forschungsdesign eingebunden. Die herangezogene Forschungsstrategie bildet eine vergleichende Fallanalyse. Als Erhebungsmethode dient das Experteninterview; ein problemorientiertes Interview im Übungsleiterinnen und -leitern, die für die Planung und Durchführung der in rheinland-pfälzischen Ganztagsschulen implementierten Sport- und Bewegungsangebote verantwortlich zeichnen. Die Auswertung erfolgte über eine modifizierte Form der qualitativen Inhaltsanalyse. In der Summe konnte aufgezeigt werden, dass es sich bei den untersuchten Sport- und Bewegungsangeboten um hochwertige Settings handelt, in denen Kriterien und hypothetische Annahmen aus den Schul- und Unterrichtsqualitätsmodellen aufgezeigt werden konnten und somit günstige Voraussetzungen –die aktive Teilnahme vorausgesetzt– für den Kompetenzerwerb der Schülerinnen und Schüler an Ganztagsschulen vorliegen.
This paper describes the robots TIAGo and Lisa used by team homer@UniKoblenz of the University of Koblenz-Landau, Germany, for the participation at the RoboCup@Home 2018 in Montreal, Canada. Further this paper serves as qualification material for the RoboCup-@Home participation in 2018. A special focus is put on novel system components and the open source contributions of our team. This year the team from Koblenz won the biggest annual scientianc robot competition in Montreal in the RoboCup@Home Open Platform track for the third time and also won the RoboCup@Home German Open for the second time. As a research highlight a novel symbolic imitation learning approach was demonstrated during the annals. The TIAGo robotic research platform was used for the first time by the team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg. Further information can be found on our project page http://homer.uni-koblenz.de.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.