Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (273)
- Diplomarbeit (196)
- Masterarbeit (187)
- Studienarbeit (137)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1136)
- Englisch (544)
- Mehrsprachig (4)
- Spanisch (2)
Volltext vorhanden
- ja (1686) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (145)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
Es wird ein Augmented-Reality Ansatz zur Erforschung modularer OSGi-Softwaresysteme präsentiert. Der Prototyp wird unter der Verwendung der Microsoft HoloLens implementiert. Module, wie Komponenten und Packages, werden in einer virtuellen Stadt dargestellt. Dieser Ansatz ermöglicht es dem Anwender, die Software-Architektur mittels intuitiver Navigation zu erkunden: Spracheingabe, Blickpunkt- und Gestenkontrolle. Eine multifunktionale Benutzeroberfläche wird vorgestellt, die für verschiedene Zielgruppen adaptiert werden kann. Viele veröffentlichte Visualisierungen weisen keine klare Zielgruppendefinition auf. Das Konzept kann leicht auf andere Darstellungsformen, wie beispielsweise der Inselmetapher übertragen werden. Erste Ergebnisse einer Evaluierung, die mittels kleiner strukturierter Interviews gewonnen werden konnten, werden präsentiert. Die Probanden mussten vier Programm-verständnis Aufgaben lösen und ihren Aufwand, sowie ihre Arbeitsbelastung einschätzen. Die Ergebnisse bilden eine gute Grundlage für weitere Forschung im Bereich der Software- Visualisierung in Augmented Reality.
Die Organische Bodensubstanz (OBS) nimmt eine Schlüsselrolle in der Sequestrierung organischer Moleküle und damit in der Regulierung ihrer Mobilität in Böden ein. Sie besteht aus Molekülen, die durch supramolekulare Wechselwirkungen strukturiert sind und dynamisch auf Umweltfaktoren und andere Moleküle reagieren können. Der Einfluss von Sorbateigenschaften und supramolekularer Struktur der OBS und deren Dynamik auf Sorptionsprozesse an der OBS ist bisher nur begrenzt verstanden. Ein Beispiel für das dynamische Verhalten der OBS ist deren physikochemische Alterung, die zu Umstrukturierungen in der OBS-Matrix führt. Dieser liegt die Bildung von Wassermolekülbrücken (WaMB) zwischen funktionellen Gruppen einzelner Molekülsegmente zugrunde. Da die WaMB die Struktur der OBS und ihre Stabilität wesentlich beeinflussen, wird davon ausgegangen, dass diese zur Sequestrierung von organischen Molekülen in der OBS beitragen. Diese Hypothese wurde jedoch noch nicht experimentell überprüft. Bisheriges Wissen darüber, wie organische Moleküle die Eigenschaften von WaMB beeinflussen, basiert weitestgehend auf Computermodellierungen. Da unbekannt ist, wie Moleküle, die in die OBS eindringen, deren physikalische Phasen beeinflussen, bedürfen insbesondere die vermuteten Wechselwirkungen zwischen organischen Molekülen und aliphatischen kristallinen Phasen unbedingt einer experimentellen Überprüfung.
Dazu wurden in dieser Arbeit die folgenden Hypothesen experimentell getestet. 1) Analog zu kristallinen Phasen in synthetischen Polymeren können aliphatische Kristallite in der OBS nicht von organischen Molekülen durchdrungen werden. 2) Die Stabilität von WaMB wird durch die Fähigkeit, der sie umgebenden Moleküle mit Wassermolekülen zu interagieren, bestimmt. 3) WaMB können verhindern, dass organische Moleküle die OBS-Matrix verlassen und tragen dadurch zu ihrer physikalischen Immobilisierung bei. Um die Hypothesen 1 und 2 zu überprüfen, wurden Böden mit ausgewählten Chemikalien behandelt, deren Wechselwirkungspotenzial mit Parametern der Theorie der Linearen Solvatationsenergiebeziehung charakterisiert wurde. Die Eigenschaften der WaMB, wie thermische Stabilität und Mobilität der verknüpften OBS-Molekülsegmente, wurden mit der Dynamischen Differenzkalorimetrie (DDK) charakterisiert. Struktur und thermische Eigenschaften von aliphatischen Kristalliten wurden mithilfe von 13C-NMR-Spektroskopie und DDK untersucht. Die Dotierung von Bodenproben mit dem Modellschadstoff Phenol und Messungen zur Phenoldesorption ermöglichten es, die Parameter der Desorptionskinetik mit WaMB-Eigenschaften zu verknüpfen.
Die Ergebnisse zeigen, dass die WaMB-Stabilität wesentlich durch Moleküle mit H-Donor- und Akzeptoreigenschaften gesenkt wird. Die mit den WaMB einhergehende Starrheit der OBS-Matrix wurde hauptsächlich durch das McGowan-Volumen der interagierenden Moleküle beeinflusst, was auf einen großen Einfluss der Dispersionskräfte hindeutet. Die Desorption von Phenol folgte einer Kinetik erster Ordnung mit zwei Zeitkonstanten, die beide mit der WaMB-Stabilität korrelierten, was die Hypothese stützt, dass WaMB zur physikalischen Immobilisierung von Phenol beiträgt. Die aliphatischen Kristalliten unterlagen nach Kontakt mit ausgewählten Chemikalien strukturellen Änderungen, die zu einem amorpheren Zustand und zu einer Senkung des Schmelzpunkts und einer signifikanten Abnahme der Kristallinität in der OBS führten. Diese strukturellen Änderungen konnten sowohl von Molekülen mit spezifischen, als auch von solchen mit unspezifischen Wechselwirkungen verursacht werden. Dies zeigt, dass Moleküle mit einem breiten Spektrum an Wechselwirkungspotenzialen in aliphatische Kristallite eindringen und deren Struktur verändern können.
Am Beispiel von WaMB und aliphatischen Kristalliten wurde aus dieser Arbeit ersichtlich, dass organische Moleküle mit Bestandteilen der OBS interagieren und messbare Änderungen in deren Struktur und Eigenschaften verursachen können. Neben der Relevanz von aliphatischen Kristalliten für Sorptionsprozesse im Boden wurde gezeigt, dass die physikochemische Matrixalterung signifikant zur Immobilisierung von Schadstoffen in der OBS beiträgt.
Das Ziel dieser Bachelorarbeit bestand darin, die Verbindung zwischen den Technologien Augmented und Virtual Reality zu veranschaulichen und ein sinnvolles Zusammenspiel der beiden Darstellungsformen zu kreieren. Hierfür wurde eine Anwendung im Bereich der Innenarchitektur implementiert, bei welcher man einen Raumplan mittels Augmented Reality intuitiv gestalten und sich anschließend einen realitätsnahen Eindruck des eingerichteten Zimmers mit einer Virtual Reality Simulation machen kann. Auf Basis des nötigen Grundwissens wurde ein Konzept für dieses Projekt ausgearbeitet und anschließend mit verschiedenen Entwicklungssystemen realisiert. Diese Implementierung wurde im Rahmen einer Evaluationsreihe getestet und darauffolgend optimiert. Das Ergebnis bestätigt die Annahme, dass sich Augmented und Virtual Reality mit ihren jeweiligen Stärken evident miteinander verbinden lassen. Diese Arbeit ist sowohl für Studierende im Bereich Informatik als auch für Interessenten an innovativen Lösungen relevant.
Smart Building Solutions - Generischer Ansatz für die Identifikation von Raumsteuerungsfunktionen
(2018)
40 Prozent der Wohnungs- und Immobilienunternehmen planen, im Rahmen von Neubau und Modernisierung intelligente Steuerungssysteme in ihre Liegenschaften zu integrieren. Gleichzeitig drängen Internetunternehmen mit ihren Geräten in Häuser und Wohnungen und versprechen intelligente Dienste für die Nutzer. Für beide Arten der neuen Technologien wird der Begriff des „Smart Home“ angewendet. Dabei hat die erste Gruppe der Systeme Ihren Ursprung im Bereich der „Gebäudeautomation“, die zweite Gruppe entwickelt sich aus dem Konzept des „Internet of Things“.
Um zu ergründen, was die Unterschiede sind und welche gemeinsamen Grundlagen existieren, werden die Bereiche der Gebäudeautomation und das Internet of Things als Systeme analysiert und einander gegenübergestellt.
Zentraler Beitrag der Arbeit ist die Erkenntnis, dass beide Domänen auf ähnlichen Konzepten aufbauen und eine Integration möglich ist, ohne die Integrität der Systeme selbst zu beeinträchtigen. Zudem liefert die Arbeit einen Ansatz dafür, wie die Planung von Gebäudesteuerungssystemen unter Einbeziehung des Internet of Things gestaltet werden kann.
Während es eine Vielzahl von Arbeiten zu der technologischen Entwicklung im Bereich der erneuerbaren Energien gibt, fehlt es jedoch bislang an einer mikroökonomischen Analyse
der Verhaltensmuster der Akteure im Umfeld von Anlagen nach dem EEG. Als Akteure kommen hier in erster Linie der Anlagenbetreiber selbst und der Staat in Betracht.
Im Hinblick auf Anlagenbetrieb und Vergütung der erzeugten Energie können beide mit unterschiedlichsten Interessen und Nutzenkalkülen aufeinander treffen. Diese Arbeit untersucht
mikroökonomische Aspekte des EEG-Förderungssystems. Im Mittelpunkt der Betrachtung stehen die Förderungsmechanismen für Biogasanlagen, die im Hinblick auf mögliche Prinzipal-Agenten-Konflikte einer Untersuchung unterzogen werden.
Die Vermeidung von Lebensmittelabfällen als nicht-technische Strategie zur Umsetzung der Bioökonomie
(2018)
Das Konzept der Bioökonomie beruht auf der Vision einer Wirtschaft, die durch die bevorzugte Verwendung biogener Rohstoffe unabhängiger wird von der Nutzung fossiler Quellen und gleichzeitig einen Beitrag zu Klima- und Ressourcenschutz, Ernährungssicherung und Stärkung der heimischen Wirtschaft leisten kann. Da die land- und forstwirtschaftliche Bio-masseproduktion aufgrund knapper Flächen jedoch begrenzt ist und sich bereits heute die negativen Folgen einer verstärkten Nachfrage zeigen, wird bezweifelt, dass sich die Vision in nachhaltiger Weise realisieren lässt. Offizielle Bioökonomie-Strategien setzen auf einen Technik-basierten Umsetzungspfad, in der Hoffnung, mit Hilfe technischer Innovationen Biomasseproduktion und Umweltverbrauch zu entkoppeln. Kritiker aus Wissenschaft und Zivilgesellschaft stehen diesem Weg skeptisch gegenüber. Sie befürchten, dass Effizienzsteigerungen und die Entwicklung neuer, umweltverträglicher Konversionsprozesse nicht ausreichen werden, um potentiell negative Folgen einer verstärkten Biomassenutzung abzuwenden. Angesichts der natürlichen Grenzen der Biosphäre sehen sie vor allem nicht-technische Ansätze zur Veränderung von Produktions- und Konsummustern als unverzichtbare Voraus-setzungen an. Mit der Formulierung eines sozial-ökologischen Umsetzungspfads wird eine Modifizierung des Bioökonomie-Konzepts gefordert, von einem bloßen Wandel der Ressourcenbasis hin zu einer umfassenden gesellschaftlichen Transformation, mit dem Ziel, Ressourcenverbrauch und Rohstoffproduktion neu zu justieren.
Die Arbeit stellt anhand des Beispiels der Lebensmittelabfälle die Bedeutung nicht-technischer Ansätze für die Realisierung der Bioökonomie heraus. Die Basis bilden fünf Publikationen, von denen sich drei mit dem Aufkommen von Lebensmittelabfällen, den Ursachen ihrer Entstehung und möglichen Vermeidungsstrategien befassen. Die anderen beiden Veröffentlichungen behandeln Flächenkonkurrenzen in der Landwirtschaft sowie Implementierungspfade der Bioökonomie. Die Arbeit kommt zu dem Schluss, dass der Beitrag von Lebensmittelabfällen zur Bioökonomie auf zwei Weisen denkbar ist: Entweder können diese als Ausgangsstoff für die Biogasproduktion oder die Bioraffinerie genutzt werden, was der aktuell vorherrschenden Vorstellung entspricht. Oder es können durch eine Reduktion des Abfallaufkommens Ressourcen, die bisher in die Bereitstellung nicht konsumierter Lebensmittel flossen, für andere Biomassenutzungen freigesetzt werden.
Die Analyse des Abfallaufkommens und der damit verbundenen Umweltwirkungen, aber auch vorhandene Studien über die ökologischen Wirkungen von Abfallvermeidungs- und verwertungsoptionen zeigen, dass die Vermeidung unter dem Gesichtspunkt der Ressourceneffizienz die sinnvollere Option darstellt. Die Arbeit hebt das Potenzial hervor, das sich aus der Berücksichtigung einer Reduktion von Lebensmittelabfällen für die Bioökonomie ergeben könnte. So ist denkbar, dass durch einen effizienteren Umgang mit den bereits produzierten Nahrungsmitteln Ressourcen freigesetzt werden können, die den Spielraum für die Realisierung der Bioökonomie verbessern würden oder aber Perspektiven entstehen für alternative Formen des Landbaus, die eine umweltverträglichere Biomasseproduktion ermöglichen könnten. Da nicht-technische Ansätze in der aktuellen Bioökonomie-Debatte kaum Berücksichtigung finden, besteht Bedarf, diese in das politische Konzept der Bioökonomie einzubeziehen und den wissenschaftlichen Diskurs für diese Aspekte zu öffnen.
In dieser Arbeit werden auf der Basis des aktuellen Forschungsstandes der Politolinguistik die Relevanz und Erklärungsmöglichkeiten politolinguistischer Analysen für das Verständnis der Sprachverwendung und Sprachprägung in der Politik am Beispiel der rechtspopulistischen Rhetorik der Alternative für Deutschland thematisiert. Die Arbeit folgt im Allgemeinen der Fragestellung, inwiefern die Politolinguistik die Sprachverwendung in der Politik und die dort entstehenden, sprachlichen Prägungen lexikalisch analysieren und mithilfe der politolinguistischen Lexikanalyse die durch politische Akteure vermittelten, politischen Intentionen offenlegen kann. Im Besonderen wird sich daran die Frage anschließen, auf welche Weise sich mit den Analysewerkzeugen der politolinguistischen Lexikanalyse das Kurzwahlprogramm der Alternative für Deutschland zur Bundestagswahl 2017 im Hinblick auf ihre rechtspopulistische Rhetorik untersuchen lässt und dortige, lexikalische Prägungsversuche der AfD identifiziert werden können.
Am Schluss der Arbeit steht Erkenntnisfortschritt, der eine deskriptive Erörterung der Relevanz und Möglichkeiten politolinguistischer Lexikanalysen sowie ihrer Werkzeuge für die Untersuchung politischer Sprachverwendung und durch Wortprägungen offenbarter Intentionen beinhaltet, dabei explizit sowohl etablierte als auch neuere Erkenntnisse des Forschungsfeldes miteinbezieht und diese im Hinblick auf die Anwendbarkeit zur Erforschung rechtspopulistischer Rhetorik reflektiert.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Redaktionelle Korrektur betreffend die Zweite Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Dritte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.
Volumetrische Beleuchtung
(2018)
Volumetrische Beleuchtung ist ein verbreitetes Beleuchtungsphänomen in der Natur und trägt in weiten Teilen zu dem realistischen Erscheinen von computergenerierten Bildern bei. Diese Arbeit befasst sich mit den physikalischen Hintergründen dieses Phänomens, listet bekannte Modelle zur Visualisierung von volumetrischer Beleuchtung in der Computergrafik auf und vergleicht anschließend drei Verfahren, mit denen eine volumetrische Beleuchtung mit heutiger Grafikhardware visualisiert werden kann. Diese Verfahren werden anhand einer Implementation in OpenGL hinsichlich ihrer Möglichkeiten und Einschränkungen, sowie ihres Rechenaufwands miteinander verglichen.
Eine Service Excellence Kultur wird von einer Vielzahl an Faktoren beeinflusst. Es existieren sowohl Faktoren, die das Zustandekommen einer Service Excellence Kultur fördern, als auch Faktoren, die hemmend wirken. Basiseigenschaften einer Service Excellence Kultur resultieren aus den internen Umstände einer Organisation. Die Mitarbeiter einer Organisation gelten als Schlüssel-Akteure bezüglich exzellentem Service. Fördernde interne Umstände entstehen aus dem Verhalten des Managements gegenüber den Angestellten. Dies kann sich in Form von Empowerment und Encouragement, also der Ermächtigung und der Ermutigung ausdrücken. Die interne Exzellenz ist der optimale interne Organisationszustand, um eine Service Excellence Kultur zu erzeugen. Aus einer internen Exzellenz heraus agieren die Front-Line-Employees mittels standardisierter sowie innovativer Prozesse mit den Kunden, und streben an, diese zufrieden zu stellen und Begeisterung zu erzeugen. Ein hemmender Faktor ist die Komplexität der Kundenprobleme, da dadurch die Erreichung von Kundenzufriedenheit und Begeisterung erschwert wird. In der IT-Dienstleistungsbranche spielt die Komplexität eine besondere Rolle. Durch die häufig individuellen und technischen Probleme entsteht eine erhöhte Komplexität, die eine Herausforderung für die Service-Mitarbeiter zur Folge hat. Damit dennoch Kundenzufriedenheit mit exzellentem Service erzeugt werden kann, gilt es, den Mitarbeiter mit einem detaillierten Handlungsleitfaden durch den Service-Prozess zu leiten. Zudem ist eine Wissensdatenbank von Nutzen, da jeder Service-Fall zum Wissensaufbau genutzt werden kann. Ein weiteres förderndes Element in einer Service Excellence Kultur ist die technische Unterstützung des Front-Line-Employees durch geeignete Software, die ihm grundlegende Aufgaben abnimmt.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
Assessment of renewable energy potentials based on GIS. A case study in southwest region of Russia
(2018)
In the present thesis, the initial conditions for the development of RES potentials for the production of wind, solar and biomass energy in the Krasnodar region (southwestern region of the Russian Federation) are examined using a multi-criteria assessment methodology. For the assessment of the RES potentials at regional scale, the prosed multi-criteria methodology based on the geographic information systems (GIS) and has been complemented by the evaluation and analysis of primary and secondary data as well as economic calculations relevant related to economic feasibility of RES projects.
The content aggregator platform Reddit has established itself as one of the most popular websites in the world. However, scientific research on Reddit is hindered as Reddit allows (and even encourages) user anonymity, i.e., user profiles do not contain personal information such as the gender. Inferring the gender of users in large-scale could enable the analysis of gender-specific areas of interest, reactions to events, and behavioral patterns. In this direction, this thesis suggests a machine learning approach of estimating the gender of Reddit users. By exploiting specific conventions in parts of the website, we obtain a ground truth for more than 190 million comments of labeled users. This data is then used to train machine learning classifiers to use them to gain insights about the gender balance of particular subreddits and the platform in general. By comparing a variety of different approaches for classification algorithm, we find that character-level convolutional neural network achieves performance with an 82.3% F1 score on a task of predicting a gender of a user based on his/her comments. The score surpasses 85% mark for frequent users with more than 50 comments. Furthermore, we discover that female users are less active on Reddit platform, they write fewer comments and post in fewer subreddits on average, when compared to male users.
Raytracing mit Vulkan
(2018)
Der Schwerpunkt der vorliegenden Bachelorarbeit war die Entwicklung eines einfachen Raytracerprogrammes unter der Verwendung der Vulkan API, und das Einschätzen des Mehraufwandes im Vergleich zum Performancegewinn. Das Programm wird in dieser Arbeit vorgestellt. Die Vulkan Komponente des Programms wird detailliert erklärt. Anschließend wird das Programm mit einem, unter der Verwendung von OpenGL geschriebenen, ähnlichen Raytracerprogramm verglichen. Beide Programme verwenden dabei den gleichen Raytracer, der im Fragmentshader implementiert ist. Der Test ergibt, dass der mithilfe von Vulkan geschriebene Raytracer deutlich langsamer ist, als das zum Vergleich dienende OpenGL Programm.
Die zentrale Fragestellung dieser Arbeit ist die nach den Effekten unterrichtlicher Faktoren und deren Zusammenspiel auf den Schülerleistungszuwach im Fach Englisch in Vietnam unter Berücksichtigung von Kontextfaktoren. Daneben geht es um methodische Fragestellungen, insbesondere um die Bedeutung der Auswahl eines Skalierungsmodells.
Die verwendeten Daten wurden im Rahmen eines Forschungsprojekts in Vietnam im Schuljahr 2006/2007 erhoben. Neben einem Messwiederholungsdesign mit zwei Messzeitpunkten am Anfang und am Ende des Schuljahres wurde eine Videostudie in der Mitte des Schuljahres durchgeführt. Bei jedem Messzeitpunkt wurden die adaptierten Englisch Tests (C-Test und Hörverstehenstest) und die Fragebögen aus der Studie Deutsch Englisch Schülerleistungen International (DESI) in Deutschland eingesetzt. Zur Gewinnung verhaltensnaher Indikatoren des Unterrichts wurden die Videoaufzeichnungen transkribiert und von trainierten Experten niedrig-inferent kodiert und hoch-inferent geratet. Zur Skalierung der Schülerleistungen wurden mehrere Skalierungsmodelle ausgewählt. Zur Skalierung der Schülerleistung anhand des C-Tests mit einer Testlet-Struktur wurden zwei unidimensionale und zwei Testletmodelle eingesetzt. Um Schülerleistungen anhand des Hörverstehenstests kamen das Raschmodell, das 2PL und das 3PL Modell zum Einsatz. Die Schülerleistungsschätzungen von beiden Messzeitpunkten wurden mithilfe eines gemeinsamen Skalierungsmodells skaliert und miteinander verlinkt. Anschließend wurden die Plausible Values gezogen. Zur Modellierung des Zusammenhangs zwischen den Unterrichtsfaktoren und dem Schülerleistungszuwachs wurden sowohl lineare als auch komplexere Unterrichtseffekte (nicht-linear, additiv, multiplikativ) berücksichtigt. Die anfängliche Leistung und der sozioökonomische Status der Schülerinnen und Schüler werden als Kontextfaktoren betrachtet. Die Analyseverfahren der Wahl waren OLS-Regressionen sowie regularisierten Regressionsmodelle mit lasso (least absolute shrinkage and selection operators).
Die Ergebnisse zeigen hinsichtlich wichtiger fächerübergreifender Merkmale einerseits ein positives Bild der Qualität des Englischunterrichts, aus Sicht der englischen Fachdidaktik jedoch eine mangelde Unterrichtsqualität. Die bedeutsamsten Unterrichtsfaktoren des Schülerleistungszuwachses im C-Test sind Aspekte der Motivierungsqualität sowie der Unterrichtssprache. Für den Zuwachs beim Hörverstehenstest spielten Aspekte der Unterrichtssprache sowie die relative Häufigkeit von Wiederholungsfragen eine wichtige Rolle. Die Hypothesen zu den Unterrichtseffekten wurden durchweg bestätigt. Trotz der Ähnlichkeiten zwischen Schülerleistungsschätzungen anhand verschiedener Skalierungsmodelle hingen die Ergebnisse hinsichtlich der Effekte von Unterrichtsmerkmalen auf den Leistungszuwachs erheblich vom Skalierungsmodell ab.
Neunte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der
Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Achte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang Lehramt an berufsbildenden Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Ordnung zur Änderung der Wahlordnung der örtlichen Studierendenschaft an der Universität Koblenz-Landau, Campus Koblenz
Ordnung zur Änderung der Beitragsordnung des Studierendenwerks Koblenz
Einundzwanzigste Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Achtzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Siebzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau
Dritte Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang Erziehungswissenschaft an der Universität Koblenz-Landau, Campus Landau
Die in den letzten Jahren fortschreitende Digitalisierung hat zur Ausbreitung und Popularisierung von Internet of Things (IoT) Technologie beigetragen (Mattern and Floerkemeier, 2010; Evans, 2013). Darüber hinaus wurde die Gesundheitsdomäne als eine der am stärksten aktiven IoT Bereiche identifiziert (Steele and Clarke, 2013). Die vorliegende Bachelorarbeit gibt einen Überblick über IoT gestützte Gamification und entwickelt ein Framework welches IoT und Gamification im Kontext einer Versicherung kombiniert. Beim Untersuchen von Gamification wurde ein konzeptuelles Modell entwickelt welches insbesondere die Rolle von IoT in einem solchen Ansatz verdeutlicht. Diesbezüglich wurde festgestellt, dass IoT bei der Aufgabenstellung Anwendung findet und diese zum einen in einem großen Rahmen ermöglicht sowie innovative und komplexere Aufgaben erlaubt. In diesem Zusammenhang wurden besonders die Vorteile und Notwendigkeit von tragbaren IoT Geräten erläutert. Eine Stakeholder Analyse beschäftigte sich mit den Vorteilen, welche durch IoT und Gamification erreicht werden können. Hierbei konnten zwei daraus erwachsende Paradigmenwechsel, für Versicherung und Versicherungsnehmer, identifiziert werden. Basierend auf den zuvor gewonnenen Erkenntnissen der Untersuchung der Gamification Ansätze und der Stakeholder Analyse wurde ein IoT gestütztes Gamification Framework entwickelt. Das Framework weißt einen Level-basierten Aufbau auf, welcher den Benutzer entlang des Entwurfsprozess leiten soll. Sowohl das erstellen, als auch das analysieren eines bestehenden Ansatzes ist mit dem Framework möglich. Darüber hinaus wurde das Framework anhand von Pokémon Go instanziiert um mögliche Mängel zu identifizieren und zu erklären. Die vorliegende Bachelorarbeit liefert eine Grundlage auf deren Basis umfassendere kontextbezogene Forschung betrieben werden kann
The physical-biological interactions that affect the temporal variability of benthic oxygen fluxes were investigated to gain improved understanding of the factors that control these processes. This study, for the first time is able to resolve benthic diffusive boundary layer (DBL) dynamics using the newly developed lifetime-based laser induced fluorescence (τLIF) oxygen imaging system, which enables study of the role of small-scale fluid mechanics generated by benthic organism activity, and hence a more detailed analysis of oxygen transport mechanisms across the sediment-water interface (SWI).
The net benthic oxygen flux across the sediment-water interface is controlled by sediment oxygen uptake and oxygen transport. While the oxygen transport is largely influenced by turbulence driven by large-scale flows, sediment oxygen uptake is mainly affected by oxygen production and biological- and chemical-oxygen degradation of organic matter. Both processes can be enhanced by the presence of fauna and are intimately coupled. The benthic oxygen flux can be influenced by fauna in two ways, i.e. by modulating the availability of oxygen, which enhances the sediment oxygen uptake, and by enhancing the transport of oxygen.
In-situ and a series of laboratory measurements were conducted to estimate the short- and seasonal variability of benthic fluxes including the effects of burrow ventilation activity by tube-dwelling animals using eddy correlation (EC) and τLIF oxygen imaging techniques, respectively.
The in-situ benthic oxygen fluxes showed high variability at hourly and seasonal timescales, where statistical analysis indicated that current velocity and water depth were the most significant predictors of benthic oxygen flux at the waterside, which co-varied with the discharge, temperature, and oxygen concentration. The range of variability of seasonal fluxes corresponded to the friction velocities which were driven by large-scale flows. Application of a simplified analytical model that couples the effect of hydrodynamic forcing of the diffusive boundary layer with a temperature-dependent oxygen consumption rate within the sediment showed that friction velocity and temperature cause similar variability of the steady-state benthic oxygen flux.
The application of τLIF oxygen imaging system in bioturbation experiments enabled the investigation and discovery of insights into oxygen transport mechanisms across the sediment-water interface. Distinct oxygen structures above burrow openings were revealed, these were associated with burrow ventilation. The DBL was degraded in the presence of burrow ventilation. Advective transport generated by the energetic plumes released at burrow outlets was the dominant transport driving mechanism. The contribution of diffusive flux to the total estimated decreased with increasing larval density. For a range of larvae densities, commonly observed in ponds and lakes, sediment oxygen uptake rates increased up to 2.5-fold in the presence of tube-dwelling animals, and the oxygen transport rate exceeded chironomid respiration by up to a factor of 4.
The coupled physical-biological factors affecting net benthic oxygen flux can be represented by temperature, which is a prominent factor that accounts for both oxygen transport and sediment oxygen uptake. Low oxygen transport by flow coincided with high summer temperatures, amplified by a reduction of benthic population density and pupation. It can also, however, be offset by increased ventilation activity. In contrast, low temperature coincided with high oxygen concentrations, an abundance of larvae, and higher flow is offset by less burrow ventilation activity. Investigation of the effect of hydrodynamics on oxygen transport alone suggested that the expected increase of benthic oxygen flux under global warming can be offset by a reduction in flow velocity, which could ultimately lead to increasing carbon burial rates, and in a growing importance of anaerobic mineralization pathways with increasing emission rates of methane.
This study suggests a significant contribution of biological induced benthic oxygen flux to physical transport driven by large-scale flow-fields contributing to bottom-boundary layer turbulence.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Social Business Documents: An Investigation of their Nature, Structure and Long-term Management
(2018)
Geschäftsdokumente beinhalten wertvolle Informationen. Sie müssen verwaltet werden, um gesetzlichen Anforderungen zu entsprechen, als organisatorisches Wissen zu dienen und Risiken zu vermeiden. Veränderungen der Technologien haben jedoch zu neuen Dokumententypen und neuen Interaktionsmöglichkeiten mit Dokumenten geführt. So hat das Web 2.0 zur Entwicklung von Enterprise Collaboration Systems (ECS) geführt, die Mitarbeitern die Nutzung von Wiki-, Blog- oder Forum-Anwendungen für ihre Geschäftstätigkeiten ermöglichen. Ein Teil der in ECS erstellten Inhalte können dabei als Social Business Documents (SBD) bezeichnet werden. Im Vergleich zu traditionellen digitalen Dokumenten haben SBD eine andere Beschaffenheit und Struktur. SBD sind beispielsweise unstrukturierter und folgen keinem strikten Lebenszyklus. Diese Charakteristika bringen neue Herausforderungen beim Verwalten von SBD mit sich. Jedoch fehlen in der wissenschaftlichen Literatur derzeit Untersuchungen zu den Charakteristika von SBD, ihren Besonderheiten und ihrem Management.
Als theoretische Linse nutzt diese Arbeit Dokumenten-Theorien und dokumentarische Praktiken mit dem Ziel, die neuen Herausforderungen des Langzeitmanagement von SBD in ECS zu untersuchen. Durch einen interpretativen, explorativen Mixed-Method-Ansatz vereint diese Arbeit zwei Forschungsteile. Erstens werden die Beschaffenheit und Struktur von SBD durch die Analyse von vier Systemen untersucht und SBD-Informationsmodelle entwickelt. Diese zeigen die zugrundeliegenden Komponenten von SBD, die Struktur, die Funktionen, die enthaltenen Metadaten, sowie die große Bandbreite von SBD-Charakteristika auf. Der zweite Teil wurde mit Unternehmensvertretern durchgeführt und besteht aus einer Fokusgruppe, einer Fallstudie mit Tiefeninterviews und einem Fragebogen. Die Fokusgruppe zeigt, dass die genutzte Art von SBD bezogen auf ihren Inhalt und Speicherort unternehmensabhängig ist und es derzeit fast keine SBD-Management-Praktiken gibt. Die Fallstudie ermöglichte tiefe Einblicke in allgemeine Dokumentenmanagement-Aktivitäten und untersuchte die Anforderungen, Herausforderungen und Prozesse des SBD-Managements. Der Fragebogen konsolidierte und vertiefte die vorherigen Erkenntnisse und gibt Einblicke in den Wert von SBD, aktuelle Management-Praktiken sowie Herausforderungen und Bedürfnisse bei deren Management. Auch zeigt er auf, dass zwar alle Unternehmen Informationen im ECS speichern, die verwaltet werden sollten, jedoch kaum SBD-Management-Aktivitäten durchführt werden und so noch viele Herausforderungen bestehen.
Zusammenfassend erlauben die Ergebnisse einen Beitrag zu Praxis und Theorie. Die Praxis ist mittels eines Frameworks adressiert, welches die Anforderungen, Herausforderungen und Aktivitäten des SBD-Managements, die Unternehmen beim Langzeitmanagement beachten müssen, aufzeigt. Des Weiteren erlauben die Erkenntnisse den theoretischen Fortschritt der dokumentenbezogenen Praktiken durch die Erweiterung der Dokumententypen um SBD. Auch werden die bestehenden Probleme der Definition von Records in Bezug auf SBD erläutert sowie die Charakteristika von Dokumenten um jene von Social Business Documents erweitert.
Das Ziel der vorliegenden Masterarbeit ist es, einen Einführungskurs in die Computervisualistik mit dem Schwerpunkt Computergrafik zu konzeptionieren und zu prototypisieren. Der Kurs sollte Grundlagen der Computergrafik vermitteln und dabei Bezüge zu anderen Veranstaltungen des Studiums herstellen, um Motivation und Verständnis für die komplexen Zusammenhänge der Studieninhalte in der Computervisualistik zu schaffen. Der aktuelle Studiengangplan weist hier bislang ein erkennbares Defizit auf. Für den Einführungskurs wurden prototypische Lerneinheiten auf Grundlage der didaktischen Methode der Moderation und unter Verwendung von Unity entwickelt. Konzept und Prototypen wurden an Probanden ohne informationstechnischen Hintergrund evaluiert. Die Ergebnisse zeigten, dass Unity eine geeignete Oberfläche für die Vermittlung der Informationen bietet. Diese stieß auf Akzeptanz und konnte leichte Zugänglichkeit bei den Probanden aufweisen, obwohl die Lerneinheiten selbst kleinere Schwächen aufwiesen. Im Anschluss an die erste Evaluationsphase wurde eine qualitative Umfrage mit Alumini der Computervisualistik durchgeführt. Die Ergebnisse bestätigten den Bedarf nach einer einführenden Veranstaltung zur Orientierung und zur Förderung von Motivation und Verständnis für die breiten Themengebiete der Computervisualistik.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Die vorliegende Arbeit befasst sich mit dem Thema Responsible Research and Innovation (RRI). Die Ziele der Arbeit sind die Klärung des Begriffs sowie die Ermittlung des aktuellen Stands der Forschung in dem Gebiet. RRI ist ein Konzept, welches wesentlich von der Europäischen Kommission (EC) geprägt wurde. Es ist zusammengesetzt aus Verantwortung, Forschung und Innovation, welche hier zunächst einzeln betrachtet werden. Verantwortung setzt sich gemäß der hier verwendeten Definition von Clausen (2009) aus Subjekt („Wer übernimmt Verantwortung“), Objekt („wofür,“), Adressaten („wem gegenüber“) und Instanzen („und wieso?“) zusammen. Im Rahmen des konzeptuellen Teils dieser Arbeit wird die Eigenschaft von Unternehmen als Verantwortungssubjekte damit begründet, dass sie zielgerichtet handeln und vor allem die Gesellschaft, welche gleichzeitig als wichtiger Adressat und als Instanz der Verantwortung auftritt, sie zunehmend für die Folgen ihrer Handlungen in die Pflicht nimmt. Das Gebiet der Nachhaltigkeit mit seinen Säulen Ökonomie, Ökologie und Soziales wird außerdem als Verantwortungsobjekt eingehend betrachtet. Innovation und ihre Teilmenge Forschung werden in dieser Arbeit als komplexe Prozesse verstanden, die Unternehmensziele auf neuartige Weise umsetzen. Mittels einer Literaturanalyse nach Webster & Watson (2002) wird der aktuelle Stand der Forschung zu RRI ermittelt. Der Großteil der verwendeten Literatur wird dabei als konzeptioneller Natur identifiziert. Trotz großer Unklarheiten, die noch vorherrschen, lassen sich vier Dimensionen von RRI herauslesen: Deliberation, Antizipation, Reflexivität und Reaktivität. Die Dimensionen, welche von der EC verwendet werden, sind demnach eher als Aktivitäten einzuordnen. Forschung und Innovation, welche nach RRI ausgerichtet wird, bezieht Stakeholder und insbesondere die Gesellschaft von Anfang an in den Prozess ein, betrachtet ihre möglichen Auswirkungen und stellt ihre Hintergründe und grundlegenden Werte kontinuierlich in Frage. Den wichtigsten Aspekt stellt dabei die Anpassungsfähigkeit des Prozesses gemäß den Ergebnissen aus den übrigen Dimensionen dar. Alle Aktivitäten basieren auf Verantwortung und Nachhaltigkeit und werden durch geeignete Steuerung integriert. Über die konzeptionelle Arbeit hinaus wurde erst wenig Forschung durchgeführt, insbesondere was Operationalisierung und Implementierung von RRI angeht. Für letztere wird hier die Einbettung in einen Stage-Gate-Prozess nach Cooper (2010) vorgeschlagen. Auch die tatsächliche Ausgestaltung der konzeptionellen Dimensionen muss jedoch noch konkretisiert werden. Außerdem muss insgesamt das Bewusstsein für RRI geschärft werden und ein Bekenntnis zu RRI erfolgen.
Exposition in der Versorgungspraxis: Zur Frage der Umsetzbarkeit und Prädiktion früher Veränderungen
(2018)
Ziel der vorliegenden Arbeit war die Beantwortung folgender Fragestellungen: 1. Wie wirksam ist ein evidenzbasiertes Expositionsmanuals bei Panikstörung mit Agoraphobie in der Routineversorgung? 2. Was sind mögliche Barrieren und Hindernisse bei der Umsetzung der Exposition? 3. Was sind Prädiktoren früher Veränderungen im Therapieverlauf?
Methode: Im Rahmen einer prospektiven Längsschnittstudie wurden die Daten der vorliegenden Studie mit denen der Multicenter-Studie von Gloster et al. (2011) mittels Effektstärken und Testung auf Äquivalenz verglichen. Grundlage war das Manual von Lang, Helbig-Lang, Westphal, Gloster und Wittchen (2011). Die Patientinnen und Patienten und Therapeutinnen und Therapeuten wurden zu den Hausaufgaben, der Umsetzung im Alltag und der therapeutischen Beziehung befragt. Zusätzlich wurde die wechselseitige Beeinflussung von therapeutischer Allianz und dem Behandlungserfolg im Therapieverlauf untersucht. In Anlehnung an Westra, Marcus und Dozois (2007) wurde getestet, ob bei es Patientinnen und Patienten mit einer hohen Hausaufgaben-Compliance und einer positiven Behandlungserwartung vor Beginn der Therapie zu einer frühen Reduktion der Panik-Symptomatik kommt und ob frühe Veränderungen durch die Compliance und die Behandlungserwartung beeinflusst werden.
Ergebnisse: 1. Die Behandlung war in der Versorgungspraxis nicht weniger effektiv als in der Multicenter-Studie. 2. Die Abbrecherquote lag bei 20.59%. Die meisten Behandelten gaben an, ihre Hausaufgaben wie besprochen erledigt zu haben und schätzten sie nicht übermäßig schwer ein. Die Umsetzbarkeit der Anforderungen im Alltag wurde von den Patientinnen und Patienten sehr hoch eingeschätzt. Die meisten Therapeutinnen und Therapeuten stimmten der Aussage, die Umsetzung der massierten Exposition sei im therapeutischen Alltag nicht praktikabel eher nicht oder gar nicht zu. Je negativer die Einschätzungen der therapeutischen Beziehung durch die Behandelten war, umso höher waren die Panikwerte am Ende der Therapie. Der HAQ-S korrelierte mit dem Outcome zu r = .21, der HAQ-F zu r = .37. 3. Die beiden Mediator-Hypothesen von Westra et al. (2007) konnten nicht bestätigt werden.
Diskussion: Die Behandlung ist in der Routineversorgung wirksam und praktikabel. Die Hausaufgaben scheinen frühe Veränderungen nicht zu prädizieren. In späteren Arbeiten des Forschungsprojektes wird notwendig sein, zudem die differentielle Wirksamkeit des angepassten Manuals zu untersuchen, und zwar mittels drei aktiver Vergleichsgruppen: massierte Exposition versus prolongierte Exposition versus die Kombination beider.
In der aquatischen Umwelt stellen Wasser-Sediment-Grenzschichten (WSG) die wichtigsten Bereiche bezüglich der Austauschprozesse zwischen dem Wasserkörper und dem Sediment dar. Diese räumlich begrenzten Regionen sind durch starke biogeochemische Gradienten charakterisiert, die die Speziierung und den Verbleib natürlicher und artifizielle Substanzen maßgeblich bestimmen. Abgesehen von biologischen Prozessen (z.B. grabende Organismen oder Photosynthese) ist der Austausch zwischen Wasser und Sediment von Diffusion oder Kolloid-gesteuerten Transport bestimmt. Dies erfordert Methoden, die es ermöglichen, die feinen Strukturen der Grenzschichten abzubilden und zwischen den unterschiedlichen Prozessen zu unterscheiden.
Hinsichtlich neu entwickelter Substanzen, die voraussichtlich in die aquatische Umwelt gelangen werden, sind artifizielle Nanomaterialien (engineered nanomaterials; ENMs) aufgrund ihrer zunehmenden Nutzung in Produkten und Anwendungen von großer Relevanz. Da sie auf der Grundlage ihrer Größe definiert werden (<100 nm), umfassen sie eine Vielzahl verschiedenster Materialien mit unterschiedlichem Verhalten in der Umwelt. Erreichen sie aquatische Systeme, mischen sie sich mit natürlich vorkommenden Kolloiden (<1 μm), die nanoskalige Partikel beinhalten.
Ausgehend von existierenden methodischen Lücken bezüglich der Charakterisierung von ENMs (als neu aufgekommene Substanzen) und WSG (als betroffene Umweltkompartimente) war das Ziel der vorliegenden Dissertation, die Entwicklung, Validierung und Anwendung einer geeigneten analytischen Basis, um ENMs an WSG untersuchen zu können. Die Herausforderungen lagen dabei in i) der Entwicklung von Methoden, die eine räumlich hochaufgelöste Beprobung von Sedimentporen-wasser erlauben. ii) Der Bereitstellung routinetauglicher Methoden zur Charakterisierung metall-basierter ENMs und iii) der Entwicklung von Methoden zur Größenfraktionierung von Porenwässern, um größenbezogene Elementverteilungsmustern an WSG erhalten zu können.
Im ersten Teil erfolgte die Entwicklung von Filter-Probenahmesonden, die in ein neuartiges Probenahmesystem integriert wurden, welches mit einem kommerziell verfügbaren Microprofiling-system kombiniert wurde (microprofiling micro sampling system; missy). Nach umfangreicher Validierung konnte in Experimenten die Tauglichkeit des missy für eine minimal-invasive und auto-matisierte Beprobung von Sedimentporenwasser bei parallelen Messungen mittels Mikrosensoren gezeigt werden. Es wurde somit erstmal möglich, im Millimetermaßstab Multielementinformationen für Sedimenttiefenprofile zu erhalten und diese in einen direkten Zusammenhang mit verschiedenen Sedimentparametern zu setzten.Aufgrund der zu erwartenden Freisetzung von ENMs in die Umwelt, war es das Ziel, Methoden bereitzustellen, die eine Untersuchung von Transportprozessen und dem Verbleib von ENMs an WSG ermöglichen. Da standardisierte Methoden noch immer fehlen, erfolgte die Entwicklung routinetauglicher Ansätze zur Bestimmung der Massenkonzentration sowie der gelösten Fraktion von ENM-Suspensionen. Somit konnten erstmals Methoden bereitgestellt werden, die eine routinetaugliche Bestimmung von zwei der wichtigsten Eigenschaften kolloidaler Systeme ermöglichen, die ebenfalls für die Entwicklung geeigneter Risikoabschätzungen und Regularien benötigt werden.
Basierend auf dieser methodischen Grundlage erfolge die Entwicklung geeigneter Verfahren zur Bestimmung der gelösten und kolloidalen Fraktionen in Sedimentporenwässern. Dies ermöglichte es erstmalig, fraktionsbezogene Elementinformationen für Sedimenttiefenprofile in millimetergenauer Auflösung zu erhalten, was eine Unterscheidung zwischen Diffusion und kolloid-gesteuerten Transportprozessen gestattet.
Zusätzlich zu den forschungsorientierten Teilen der vorgelegten Dissertation wurden in einer weiteren, als Anhang beigefügten Publikation (Appendix III) Fragen zu einem möglichen Eintrag nanoskaliger Stoffe in Oberflächengewässer vor dem Hintergrund des aktuell gültigen Deutschen Wasserrechtes adressiert.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
Moderne Softwaresysteme bestehen aus verschiedenen Programmiersprachen, Softwaretechnologien und Artefakten. Dadurch wird es für Entwickler komplexer, den Quelltext sowie die enthaltenen Abhängigkeiten zu verstehen. Entsprechend muss ein größerer Aufwand in die Erstellung von Dokumentation gesteckt werden. Eine Möglichkeit zur Dokumentation einer Software mit dem Fokus auf die benutzten Technologien stellen linguistische Architekturen dar. Diese können z. B. durch die MegaL Ontologie beschrieben werden. Da die Erstellung einer solchen linguistischen Architektur für ein beliebiges Softwareprojekt kompliziert ist, beschreibt diese Arbeit einen Ansatz zur automatischen Erstellung einer solchen linguistischen Architektur. Dafür wird das Open Source Framework Apache Jena verwendet, welches Semantic Web Technologien wie RDF und OWL benutzt. Mit diesem können spezifische Regeln definiert werden, welche aus existierenden RDF-Triplen neue ableiten. Dieser Ansatz wird schließlich in einer Case Study an zehn verschiedenen Open Source Projekten getestet. Dabei soll eine linguistische Architektur in MegaL extrahiert werden, welche die Nutzung von Hibernate beschreibt. Mit der Hilfe von spezifischen Metriken wird das Ergebnis dann mit einem internen und externen Ansatz evaluiert.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Schrift ist in ihrer Besonderheit verkannt, versteht man sie allein als Mittel zur Stillstellung gesprochener Sprache. Phänomene wie Schriftbildlichkeit, Operativität und die Physiognomie des Schriftbildes machen Schrift zu einem Medium. In der Entwicklung und in der Verwendung von Schriftgebrauchsformen in unterschiedlichen Kontexten werden sowohl die Eigenschaften, die Schriftzeichen mit verbalen Zeichen gemeinsam haben, als auch die Potentiale, die sie mit pikturalen Zeichen gemeinsam haben, genutzt. Daher werden in der vorliegenden Arbeit die Funktionalisierungsmöglichkeiten von Schriftgebrauchsformen vor dem Hintergrund der Symboltheorie Nelson Goodmans vorgestellt. Eine an die ästhetische Theorie angelehnte Herangehensweise ermöglicht es, gerade die bildlichen Aspekte von Schriftformen – die bislang in schrifttheoretischen Arbeiten meist als irrelevant ausgeblendet werden – zu berücksichtigen. Es wird ein dynamischer Kompetenzbegriff in Anlehnung an J.G. Schneider entwickelt, der alle Fähigkeiten umfasst, die benötigt werden, um Schriftgebrauchsformen erfolgversprechend verwenden zu können. Zu diesen Fähigkeiten gehören nicht nur grammatische und orthographische Kompetenz, sondern ebenso Geschmack und die Fähigkeit zur Analogiebildung. An Beispielen verschiedener Schriftverwendungen wird gezeigt, wie unterschiedlich Schriftgebrauchsformen eingesetzt werden können. So wird Schrift als Kulturtechnik darstellbar und mithin verdeutlicht, dass die Art und Weise, wie Menschen ihre Kultur, ihre Welt, aber auch ihre spezifische Umgebung und eigene Identität modellieren, von Schriftverwendungen geprägt und verändert wird.
Unternehmen versuchen, Knowledge Management (KM) zu nutzen, um mehr Effizienz und Effektivität im Unternehmen zu erreichen. Das Hauptproblem besteht darin, dass die meisten dieser KM Projekte nicht oder nur selten auf nachhaltigen Analysen oder etablierten Theorien über KM basieren. Oft besteht eine große Kluft zwischen den Erwartungen und dem tatsächlichen Ergebnis solcher KM Initiativen. Die zu beantwortende Forschungsfrage lautet also: Welche Herausforderungen ergeben sich in KM Projekten, welche KM Anforderungen können daraus abgeleitet werden und welche Empfehlungen unterstützen das Ziel, die Anforderungen an KM zu erfüllen? Als theoretische Grundlage wird eine Reihe von KM Frameworks untersucht. Anschließend werden KM Herausforderungen aus der Literatur analysiert und mit Best-Practice-Beispielen aus Case-Studies werden Handlungsempfehlungen für diese Herausforderungen gegeben. Das Hauptergebnis dieser Arbeit ist eine Best Practice-Guideline, die es Chief Knowledge Officers (CKOs) und KM Projektmanagern ermöglicht, die in dieser Arbeit genannten Herausforderungen genau zu untersuchen und eine geeignete Methode zu finden, diese Herausforderung optimal zu meistern. Diese Guideline zeigt, dass KM auf vielfältige Weise positiv und negativ beeinflusst werden kann. Knowledge Management (KM) in einem Unternehmen zu meistern ein großes und weitreichendes Unterfangen ist und das Technologie bzw. Information Technology (IT) nur ein Teil des großen Ganzen ist.
Die vorliegende Masterarbeit thematisiert die Evaluation einer sprachgesteuerten Lösung in der Produktion mit multimodaler Eingabe. Dabei wurden die Usability und die Benut-zerfreundlichkeit eines gewählten Sprachdialogsystems bewertet. Die Bewertung wurde mit Hilfe von Benutzertests und eines modifizierten SASSI-Fragebogens durchgeführt. Weiterhin wurden auch technische Kriterien, wie die Wortfehlerrate und die Out-of-grammar Rate zur Hilfe gezogen. Für den Versuch wurden zwei verschiedene Szenarien aus einer realen Produktionsum-gebung definiert. Dabei sollten die Teilnehmer verschiedene Aufgaben mit Hilfe des Testsystems erledigen. Die Interaktion mit dem Sprachdialogsystem fand anhand von ge-sprochenen Befehlen statt, welche durch eine Grammatik definiert wurden. Die Sprach-kommandos wurden durch die Zuhilfenahme eines WLAN-Headsets an das Sprachsys-tem übertragen. Während des Versuchs wurden Aussagen der Teilnehmer protokolliert und die technischen Kriterien notiert.
Das Ergebnis der Evaluation verdeutlicht, dass das Sprachdialogsystem eine hohe Quali-tät bezüglich Usability und Benutzerfreundlichkeit aufweist. Dabei sind die Wortfehler-rate und die Out-of-grammar Rate sehr niedrig ausgefallen und das System wurde von den Benutzern deutlich positiv bewertet. Nichtsdestotrotz wurden einige Kritikpunkte ge-nannt, die zu einer Verbesserung des Systems beitragen können.
Topic Models sind ein beliebtes Werkzeug um Themen in großen Textkorpora zu identifizieren. Diese Textkorpora enthalten oft versteckte Meta-Gruppen. Das Größenverhältnis zwischen diesen Gruppen variiert meist stark. Die Präsenz dieser Gruppen wird in der Praxis oft ignoriert. Diese Masterarbeit erforscht daher, ob diese Gruppen Einfluss auf ein Topic Model haben.
Um den Einfluss zu testen, wird LDA auf Samples mit unterschiedlichen Gruppengrößen trainiert. Die Samples werden von Textkorpora mit großen Gruppenunterschieden (d.h. Sprachunterschieden) und kleinen Gruppenunterschieden (d.h. Unterschiede in der politische Orientierung) generiert. Die Leistungsfähigkeit von LDA wird per "Perplexity" evaluiert.
Der Einfluss von Gruppen auf die generelle Leistungsfähigkeit von Topic Models hängt von verschiedenen Faktoren der Gruppen ab, z.B. der Vorhersagbarkeit der Sprache generell. Die Leistungsfähigkeit der Topic Models für die einzelnen Gruppen wird von der Variation der relativen Gruppengrößen beeinflusst. Allerdings ist der Effekt für alle Datensätze verschieden.
LDA kann die Gruppen intern unterscheiden, wenn die Unterschiede der Gruppen groß genug sind (z.B. Sprachunterschiede). Der Anteil der Topics, die explizit für eine Gruppe gelernt werden, ist jedoch unterproportional zu dem Anteil der Gruppe im Trainingskorpus. Dieser Effekt verstärkt sich für kleinere Minderheiten.
This paper describes the robot Lisa used by team homer@UniKoblenz of the University of Koblenz Landau, Germany, for the participation at the RoboCup@Home 2017 in Nagoya, Japan. A special focus is put on novel system components and the open source contributions of our team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on
http://wiki.ros.org/agas-ros-pkg.
This paper describes the robot Lisa used by team
homer@UniKoblenz of the University of Koblenz Landau, Germany, for the participation at the RoboCup@Home 2016 in Leipzig, Germany. A special focus is put on novel system components and the open source contributions of our team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg.
In dieser Forschungsarbeit wird eine Methode zur anwendungsbasierten Verknüpfung von Anforde-rungen und Enterprise Collaboration Softwarekompenten vorgestellt. Basierend auf dem etablierten IRESS Modell wird dabei ein praxistaugliches Mappingschema entwickelt, welches Use Cases über Kol-laborationsszenarien, Collaborative Features und Softwarekomponenten mit ECS verbindet. Somit las-sen sich Anforderungen von Unterhemen in Form von Use Cases und Kollaborationsszenarien model-lieren und anschließend über das Mappingschema mit konkreten ECS verbinden. Zusätzlich wird eine Methodik zur Identifikation von in Softwarekomponenten enthaltenen Collaborative Features vorge-stellt und exemplarisch angewandt.
Anschließend wird ein Konzept für eine Webapplikation entworfen, welches das vorgestellte Mapping automatisiert durchführt, und somit nach Eingabe der Anforderungen in Form vom Use Cases oder Kol-laborationsszenarien, die ECS ausgibt, die eben diese Anforderungen unterstützen.
The term “Software Chrestomaty” is defined as a collection of software systems meant to be useful in learning about or gaining insight into software languages, software technologies, software concepts, programming, and software engineering. 101companies software chrestomathy is a community project with the attributes of a Research 2.0 infrastructure for various stakeholders in software languages and technology communities. The core of 101companies combines a semantic wiki and confederated open source repositories. We designed and developed an integrated ontology-based knowledge base about software languages and technologies. The knowledge is created by the community of contributors and supported with a running example and structured documentation. The complete ecosystem is exposed by using Linked Data principles and equipped with the additional metadata about individual artifacts. Within the context of software chrestomathy we explored a new type of software architecture – linguistic architecture that is targeted on the language and technology relationships within a software product and based on the megamodels. Our approach to documentation of the software systems is highly structured and makes use of the concepts of the newly developed megamodeling language MegaL. We “connect” an emerging ontology with the megamodeling artifacts to raise the cognitive value of the linguistic architecture.
Homonegative Diskriminierung, wie die Aberkennung von Führungsqualitäten oder die Verweigerung einer besseren Bezahlung, betrifft nicht nur Lesben und Schwule, sondern Menschen, die als lesbisch oder schwul wahrgenommen werden (Fasoli et al., 2017). Folglich wird angenommen, dass insbesondere heterosexuelle Personen Opfer homonegativer Diskriminierung werden (Plöderl, 2014). Zwar ist die Wahrnehmung der sexuellen Orientierung stereotypengetrieben (z.B. Cox et al., 2015), jedoch fehlt es bislang an Wissen darüber, wie korrekt diese Stereotype, insbesondere bezogen auf die Sprechweise, sind. Trotz diverser soziophonetischer und sozialpsychologischer Forschung im Zusammenhang mit sexueller Orientierung und Geschlecht, mangelt es bislang an einem umfassenden Verständnis, wie die sexuelle Orientierung ausgedrückt und wahrgenommen wird.
Diese Lücken möchte die vorliegende Arbeit schließen. Hauptziele der vorliegenden Arbeit sind a) die Überprüfung der Korrektheit von Sprechstereotypen im Kontext der sexuellen Orientierung und b) die Entwicklung eines Modells, wie die sexuelle Orientierung interpersonell konstruiert wird. Die vorliegende Arbeit besteht aus insgesamt fünf Manuskripten. Diesen ist gemein, dass sie sozialpsychologische und soziophonetische Perspektiven integrativ behandeln, die soziale Identität in den Blick nehmen und primär die Sprechweise anstelle der fazialen Erscheinung in den Mittelpunkt stellen. Zudem wurden vornehmlich deutsche respektive deutschsprachige Versuchspersonen untersucht.
In Manuskript 1 wird die Traditional Masculinity/Femininity-Scale als reliables und valides Instrument zur Erfassung des Geschlechtsrollen-Selbstkonzeptes etabliert. Diese Neuentwicklung ist notwendig, da bislang existierende Skalen die selbstzugeschriebene Maskulinität/Femininität nur noch unzureichend abbilden (z.B. Abele, 2003; Evers & Sieverding, 2014). In den Manuskripten 2, 3 und 4 wird die Korrektheit von Sprechstereotypen bezüglich ihres stereotypen Inhalts und der unterstellten Homogenität von Mitgliedern der gleichen Gruppe adressiert. Dies erfolgt durch den Einsatz unterschiedlicher methodischer Zugänge. Zum einen werden relevante akustische Parameter von lesbischen/schwulen und heterosexuellen Frauen und Männern gemittelt, zum anderen wird Voice-Morphing-Verfahren angewendet, um prototypische, natürlich klingende Durchschnittsstimmen herzustellen (Kawahara et al., 2008). Lesben und heterosexuelle Frauen unterscheiden sich in keinem, schwule und heterosexuelle Männer nur in einem der analysierten akustischen Parameter. Demgegenüber erbrachte eine nuancierte psychologische Analyse verschiedentlich Evidenz für eine akustische Heterogenität innerhalb der Gruppen. Insbesondere die Exklusivität der sexuellen Orientierung wie auch das Geschlechtsrollen-Selbstkonzept wurden akustisch indexikalisiert. Dies legt nahe, dass Sprechstereotype inkorrekt sind. Jedoch wurde gezeigt, dass in den Durchschnittsstimmen die Informationen über die sexuelle Orientierung für Rezipient*innen wahrnehmbar enthalten sind. Dadurch lassen sich Sprechstereotype als Übertreibungen kleiner Körnchen von Wahrheit begreifen. In Manuskript 5 wird die bisherige Literatur zur interpersonellen Konstruktion der sexuellen Orientierung zu einem Modell verdichtet: Dem Expression and Perception of Sexual Orientation Model. Dieses Modell beschreibt mit einer indirekten Route, wie die Information der sexuellen Orientierung von der Kommunikator*in hin zur Rezipient*in durch drei mediierende Komponenten übertragen wird. Dadurch ist das Modell in der Lage, eine Erklärung dafür anzubieten, warum die sexuelle Orientierung zwar überzufällig gut aber nicht perfekt erkannt werden kann.
Insgesamt stellt die vorliegende Arbeit bedeutsame Impulse zur Weiterentwicklung der Erforschung von sozialen Markern der sexuellen Orientierung und des Geschlechts bereit. Sie schlägt ein (Denk)Modell vor, wie sexuelle Orientierung ausgedrückt und wahrgenommen wird, sie zeigt die Fruchtbarkeit der Verquickung sozialpsychologischer und soziophonetischer Forschungsansätze auf und verdeutlicht den Wert der Anwendung neuer Methoden und Technologien. Darüber hinaus weist die vorliegende Arbeit auch praktische Implikationen auf. Sprechstereotype im Kontext der sexuellen Orientierung können als inkorrekt zurückgewiesen werden – so sprechen deutschsprachige heterosexuelle Männer nicht mehr oder weniger nasal als schwule Männer. Damit trägt die vorliegende Arbeit potentiell zum Abbau von Stereotypen und zur Reduktion von Diskriminierung bei.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
Grundwasser ist eine lebenswichtige Ressource und gleichzeitig ein thermisch stabiler Lebensraum mit einer außergewöhnlichen Fauna. Aufgrund der Klimageschichte der letzten ca. 1,8 Millionen Jahre in Mitteleuropa war die Ausgangshypothese, dass die meisten Grundwasserarten an Temperaturen unterhalb von 14 °C angepasst sind und sich Temperaturerhöhungen daher negativ auf die Grundwasserfauna auswirken.
Um die Folgen einer Klimaerwärmung in situ beurteilen zu können, wurden anthropogen erwärmte Grundwässer als Modelle herangezogen. In ersten Teil dieser Arbeit wurden die Crustaceagemeinschaften natürlich temperierter und anthropogen erwärmter Standorte untersucht. Dazu wurden insgesamt 70 Grundwassermessstellen im Oberrheingraben über ein Jahr (2011 bis 2012) sechsmal beprobt. Ergänzend zu diesem synökologischen Ansatz wurde in einem zweiten Teil die Temperaturpräferenz ausgewählter Arten überprüft. Für diese autökologische Betrachtung wurde ein deutschlandweiter Datensatz herangezogen.
Die ausgewählten Untersuchungsgebiete haben sich als geeignete Modelle für die prognostizierten Temperaturerhöhungen herausgestellt. Die Temperatur erwies sich als einer der wichtigsten Parameter für die Crustaceagemeinschaften. Erwärmungen beeinflussen die Zusammensetzung der Gemeinschaften und die Diversität. Dabei zeigte sich, dass es artspezifisch unterschiedliche Temperaturpräferenzen gibt. Einige vermutlich weniger streng stygobionte Arten scheinen höhere Temperaturen zu tolerieren. Der Großteil der stygobionten Grundwasserarten bevorzugt allerdings Temperaturen unterhalb von 14 °C, wobei wenige Arten als „extrem kalt¬steno-therm“ einzustufen sind. Diese Arten wurden an Standorten nachgewiesen, die aufgrund der hydrologischen Verhältnisse relativ kühl sind und der Fauna auch zukünftig als kalte Refugien Schutz bieten könnten. Einer dieser Standorte ist aufgrund seiner Artenvielalt als „Hot Spot“ einzustufen. Die Ergebnisse legen nahe, dass vor allem kaltstenotherme Arten durch eine Klimaerwärmung und anthropogene Wärmeeinträge gefährdet sind.
Die Untersuchung zeigt, dass Grundwasserlebensräume vor Temperaturerhöhungen zu bewahren sind. Lokale anthropogene Wärmeeinträge sollten keine dauerhafte und großflächige Grundwassererwärmung über 14 °C zur Folge haben. Thermische Ein-träge sollten überwacht und bewertet werden. Es wird empfohlen, die bestehenden rechtlichen Rahmenbedingungen den ökologischen Erfordernissen anzupassen.
In dieser Arbeit werden Methoden und Maße getestet, nach denen beim Pathtracing eine Auswahl zwischen Line Space und Bounding Volume Hierarchie getroffen werden kann, die die Vorteile der beiden Datenstrukturen ausnutzen. Die Strukturen sind innerhalb der Bounding Box jedes Objekts (Objektlokal) definiert und jeder Line Space enthält in den Shafts jeweils eine Kandidaten-ID. Als Implementations- basis dient ein eigenes C++ und OpenGL Framework, in dem das Pathtracing und die Line Space Generierung über Compute Shader stattfindet. Die Maße schließen die Wahrscheinlichkeitsverteilung, die Effektabhängigkeit, sowie einen Distanz- grenzwert ein und werden gegen verschiedene Szenen getestet. Die Ergebnisse zeigen in den meisten Situationen einen deutlichen Geschwindigkeitszuwachs bei teils nur geringen visuellen Unterschieden, wobei das Wahrscheinlichkeitsmaß die qualitativ hochwertigsten Bilder für den gegebenen Leistungszuwachs erbringt. Die grundlegenden Probleme des Line Space im Vergleich mit der BVH, nämlich der hohe Speicherverbrauch und die lange Generierungszeit, bleiben aber trotz der objektlokalen Struktur, der minimalen Datenmenge pro Shaft und der Compute Shader Implementierung, erhalten.
Die Forschung im Bereich der modellbasierten Objekterkennung und Objektlokalisierung hat eine vielversprechende Zukunft, insbesondere die Gebäudeerkennung bietet vielfaltige Anwendungsmöglichkeiten. Die Bestimmung der Position und der Orientierung des Beobachters relativ zu einem Gebäude ist ein zentraler Bestandteil der Gebäudeerkennung.
Kern dieser Arbeit ist es, ein System zur modellbasierten Poseschätzung zu entwickeln, das unabhängig von der Anwendungsdomäne agiert. Als Anwendungsdomäne wird die modellbasierte Poseschätzung bei Gebäudeaufnahmen gewählt. Vorbereitend für die Poseschätzung bei Gebäudeaufnahmen wird die modellbasierte Erkennung von Dominosteinen und Pokerkarten realisiert. Eine anwendungsunabhängige Kontrollstrategie interpretiert anwendungsspezifische Modelle, um diese im Bild sowohl zu lokalisieren als auch die Pose mit Hilfe dieser Modelle zu bestimmen. Es wird explizit repräsentiertes Modellwissen verwendet, sodass Modellbestandteilen Bildmerkmale zugeordnet werden können. Diese Korrespondenzen ermöglichen die Kamerapose aus einer monokularen Aufnahme zurückzugewinnen. Das Verfahren ist unabhängig vom Anwendungsfall und kann auch mit Modellen anderer rigider Objekte umgehen, falls diese der definierten Modellrepräsentation entsprechen. Die Bestimmung der Pose eines Modells aus einem einzigen Bild, das Störungen und Verdeckungen aufweisen kann, erfordert einen systematischen Vergleich des Modells mit Bilddaten. Quantitative und qualitative Evaluationen belegen die Genauigkeit der bestimmten Gebäudeposen.
In dieser Arbeit wird zudem ein halbautomatisches Verfahren zur Generierung eines Gebäudemodells vorgestellt. Das verwendete Gebäudemodell, das sowohl semantisches als auch geometrisches Wissen beinhaltet, den Aufgaben der Objekterkennung und Poseschätzung genügt und sich dennoch an den bestehenden Normen orientiert, ist Voraussetzung für das Poseschätzverfahren. Leitgedanke der Repräsentationsform des Modells ist, dass sie für Menschen interpretierbar bleibt. Es wurde ein halbautomatischer Ansatz gewählt, da die automatische Umsetzung dieses Verfahrens schwer die nötige Präzision erzielen kann. Das entwickelte Verfahren erreicht zum einen die nötige Präzision zur Poseschätzung und reduziert zum anderen die Nutzerinteraktionen auf ein Minimum. Eine qualitative Evaluation belegt die erzielte Präzision bei der Generierung des Gebäudemodells.
Die Verwendung physiologischer Indikatoren, welche die Reaktion von Organismen auf Veränderungen ihrer Umwelt widerspiegeln, bietet ein großes Potenzial für ökologische Studien. Durch die Analyse des physiologischen Zustandes von Organismen ermöglichen diese Indikatoren eine schnellere Erfassung von Veränderungen in aquatischen Ökosystemen als es durch die Betrachtung ökologischer Indikatoren, wie z. B. der Struktur der Benthosgemeinschaft oder des Reproduktionserfolges einzelner Arten, möglich ist. Dieser Zeitvorteil kann sowohl die Effektivität der Habitatbewertung als auch experimenteller Studien in der aquatischen Ökologie erhöhen. In diesem Zusammenhang konzentriert sich die vorliegende Arbeit auf physiologische Messgrößen, wie die Konzentration von Energiespeicherstoffen, den zellulären Energiestatus (Adenylate Energy Charge) oder die Stoffwechselaktivität in vivo, die den energetischen Zustand oder den aktuellen Energieverbrauch von Organismen charakterisieren, sowie auf das RNA:DNA-Verhältnis als Wachstumsindikator. Obwohl diese Indikatoren in der marinen Ökologie, und in jüngerer Zeit auch in der Ökotoxikologie, regelmäßig verwendet werden, haben sie in der limnischen Ökologie bisher wenig Anwendung gefunden. Um die Anwendung physiologischer Indikatoren in diesem Bereich zu verstärken verfolgt die Dissertation zwei Ziele. Zum einen verdeutlicht sie das Potenzial der einzelnen physiologischen Indikatoren, zum anderen stellt sie Grundlagenwissen zu ausgewählten ökophysiologischen Aspekten einheimischer und gebietsfremder Arten der Ordnung Amphipoda bereit, die als Schlüsselarten aquatischer Lebensräume als besonders geeignet für die Bestimmung physiologischer Indikatoren angesehen werden. In diesem Sinne werden in Kapitel 2 sowohl die grundlegenden Annahmen, als auch die theoretischen und methodischen Grundlagen für die Bestimmung physiologischer Indikatoren aufgezeigt und ihre Anwendbarkeit in Fallstudien verdeutlicht. Die durchgeführten Experimentalstudien (Kapitel 3−5) liefern Informationen zu (i) den art- und geschlechtsspezifischen Unterschieden in der saisonalen Variation des energetischen Zustandes natürlicher Gammarus Populationen (G. fossarum, G. pulex), (ii) den Unterschieden in der Stoffwechsel- und Bewegungsaktivität verschiedener Amphipoda-Arten (G. fossarum, G. roeselii und D. villosus), sowie (iii) den direkten Auswirkungen von Ammoniak auf die Physiologie und die Bewegungsaktivität von D. villosus. In Kapitel 6 werden abschließend die grundlegenden Schlussfolgerungen aus den durchgeführten Feld- und Laborstudien, sowie ihre Relevanz und Auswirkungen für die Anwendung physiologischer Indikatoren in der limnischen Ökologie diskutiert.
The output of eye tracking Web usability studies can be visualized to the analysts as screenshots of the Web pages with their gaze data. However, the screenshot visualizations are found to be corrupted whenever there are recorded fixations on fixed Web page elements on different scroll positions. The gaze data are not gathered on their fixated fixed elements; rather they are scattered on their recorded scroll positions. This problem has raised our attention to find an approach to link gaze data to their intended fixed elements and gather them in one position on the screenshot. The approach builds upon the concept of creating the screenshot during the recording session, where images of the viewport are captured on visited scroll positions and lastly stitched into one Web page screenshot. Additionally, the fixed elements in the Web page are identified and linked to their fixations. For the evaluation, we compared the interpretation of our enhanced screenshot against the video visualization, which overcomes the problem. The results revealed that both visualizations equally deliver accurate interpretations. However, interpreting the visualizations of eye tracking Web usability studies using the enhanced screenshots outperforms the video visualizations in terms of speed and it requires less temporal demands from the interpreters.
Da Software heute nahezu alle Bereiche des Alltags durchdringt, ist Sicherheit von Softwaresystemen ein wichtigeres Anliegen als je zuvor. Die Sicherheit eines Softwaresystems zu bewerten stellt in der Praxis jedoch eine Herausforderung dar, da nicht viele Metriken existieren, die Sicherheitseigenschaften von Sourcecode auf Zahlenwerte abbilden. Eine geläufige Annahme ist, dass das Auftreten von Sicherheitslücken in Korrelation mit der Qualität von Software-Designs steht, allerdings fehlt es momentan an klaren Belegen für diese Annahme. Der Nachweis einer vorhandenen Korrelation kann dazu beitragen die Messung von Programmsicherheit zu optimieren, da man dann gezielt Qualitätsmetriken zum Messen von Sicherheit einsetzen könnte. Zu diesem Zweck wurden in dieser Arbeit für 50 Android-Apps aus dem Open Source-Bereich drei Sicherheits- und sieben Qualitätsmetriken, sowie Korrelationen zwischen diesen Metriken berechnet. Bei den Qualitätsmetriken handelt es sich um einfache Code-Metriken bis hin zu High-Level-Metriken, wie objektorientierte Antipatterns, die zusammen ein umfassendes Bild der Qualität vermitteln. Um die Sicherheit darzustellen wurden zwei Sichtbarkeitsmetriken zusammen mit einer Metrik, die die minimale Rechteanforderung mobiler Applikationen berechnet, ausgewählt. Es wurde festgestellt, dass auf Basis der betrachteten Evaluationsprojekte deutliche Korrelationen zwischen den meisten Qualitätsmetriken liegen. Zu den Sicherheitsmetriken wurden dahingegen keine signifikanten Korrelationen gefunden. Es werdendiese Korrelationen und deren Ursachen diskutiert und auf dieser Basis Empfehlungen formuliert.
Introduction:
In March 2012 a secessionist-Islamist insurgency gained momentum in Mali and quickly took control of two-thirds of the state territory. Within weeks radical Islamists, drug smugglers and rebels suddenly ruled over a territory bigger than Germany. News of the abuse of the population and the introduction of harsh Sharia law spread soon, and word got out that the Malian Army had simply abandoned the land. The general echo of the IC was surprise, a reaction that was, as this research will show, as unfunded as it was unconstructive*. When Malian state structures collapsed, the world watched in shock, even though the developments couldhave been anticipated –and prevented. Ultimately, the situation had to be resolved by international forces (most notably French troops), who are still in Mali at the time of writing (Arieff 2013a: 5; Lohmann 2012: 3; Walther and Christopoulos 2015: 514f.; Shaw 2013: 204; Qantara, Interview, 2012;L’Express, Mali, 2015; Deutscher Bundestag, MINUSMA und EUTM Mali, 2016; UN, MUNISMA, 2016; Boeke and Schuurmann 2015: 801; Chivvis 2016: 93f.).
This research will show that the developments in Mali in 2012 have been developing for a long time and could have been avoided. In doing so, it will also show why state security can never be analyzed or consolidated in an isolated manner. Instead, it is necessary to take into account regional dynamics and developments in order to find a comprehensive approach to security in individual states. Once state failure occurs, not only does the state itself fail, but the surrounding region equally failed to prevent the failure.
Weak states are a growing concern in many world regions, particularly in Africa. As international intervention often proves unsustainable for various reasons*, the author believes that states which cannot stabilize themselves need a regional agent to support them. This regional agent should be a Regional Security Complex (RSC) asdefined by Barry Buzan and Ole Waever (Buzan and Waever 2003). As the following analysis will show, Mali is a case in point. The hope is that this study will help avoid similar failures in the future by making a strong case for the establishment of RSC’s.
…
Redaktionelle Korrektur betreffend die Vierzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Satzung der örtlichen Studierendenschaft an der Universität Koblenz-Landau, Campus Koblenz
Sechste Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang Umweltwissenschaften und in den Masterstudiengängen Umweltwissenschaften / Environmental Sciences und Ecotoxicology an der Universität Koblenz-Landau, Campus Landau
Zwanzigste Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im lehramtsbezogenen Bachelorstudiengang
an der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Ordnung für die Prüfung im Bachelorstudiengang und im Masterstudiengang BioGeoWissenschaften der Universität Koblenz-Landau
Fünfzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Sechste Ordnung zur Änderung der Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang „Sozial- und Kommunikationswissenschaften“ des Fachbereichs 6: Kultur- und Sozialwissenschaften an der Universität Koblenz-Landau
Mapping ORM to TGraph
(2017)
Object Role Modeling (ORM) is a semantic modeling language used to describe objects and their relations amongst each other. Both objects and relations may be subject to rules or ORM constraints.
TGraphs are ordered, attributed, typed and directed graphs. The type of a TGraph and its components, the edges and vertices, is defined using the schema language graph UML (grUML), a profiled version of UML class diagrams. The goal of this thesis is to map ORM schemas to grUML schemas in order to be able to represent ORM schema instances as TGraphs.
Up to this point, the preferred representation for ORM schema instances is in form of relational tables. Though mappings from ORM schemas to relational schemas exist, those publicly available do not support most of the constraints ORM has to offer.
Constraints can be added to grUML schemas using the TGraph query language GReQL, which can efficiently check whether a TGraph validates the constraint or not. The graph library JGraLab provides efficient implementations of TGraphs and their query language GReQL and supports the generation of grUML schemas.
The first goal of this work is to perform a complete mapping from ORM schemas to grUML schemas, using GReQL to sepcify constraints. The second goal is to represent ORM instances in form of TGraphs.
This work gives an overview of ORM, TGraphs, grUML and GReQL and the theoretical mapping from ORM schemas to grUML schemas. It also describes the implementation of this mapping, deals with the representation of ORM schema instances as TGraphs and the question how grUML constraints can be validated.
Das Internet der Dinge – Internet of Things (IoT) – ist kürzlich der entfernten Vision des Ubiquitous Computing entwachsen und findet nunmehr konkret Eingang in Politik und Wirtschaft, welches sich in aufwendigen Förderprogrammen äußert. Unternehmen sehen sich mit dem von Experten vorhergesagten, gravierenden Wandel von Geschäftsmodellen konfrontiert und müssen darauf reagieren, um im Wettbewerb bestehen zu können. Obgleich daher ein Bedarf zur Strategieentwicklung bezüglich der kommenden Veränderungen in Unternehmen besteht, ist das Thema des organisationsbezogenen Wandels in Hinblick auf die neue Technologie in der akademischen Diskussion derzeit noch wenig präsent. Die vorliegende Arbeit erforscht IoT-verknüpften Wandel in Unternehmen, indem sie un- terschiedliche Arten des Wandels identifiziert und klassifiziert. Sie kombiniert zu diesem Zweck den methodischen Ansatz der gegenstandsbezogenen Theoriebildung (Grounded Theory) mit einer Diskussion und Klassifikation von identifizierten Veränderungen vor dem Hintergrund eines strukturierten Literaturüberblicks im Bereich des Wandels in Organisationen. Diesbezüglich erfolgt eine Meta-Analyse von Fallstudien mittels einer qualitativ-explorativen Kodierungs-Methode zur Identifizierung von Kategorien des organisationsbezogenen Wandels, welcher mit der Einführung von IoT in Verbindung steht. Darüber hinaus wird eine Gegenüberstellung der identifizierten Kategorien mit vorherigem technologie-verknüpftem Wandel am Beispiel von Electronic Business (e-business), Enterprise Resource Planning (ERP)-Systemen und Customer Relationship Management (CRM)-Systemen durchgeführt. Den Hauptbeitrag dieser Arbeit stellt die Entwicklung eines umfassenden Modells von organisationsbezogenem Wandel bezüglich IoT dar. Das Modell präsentiert zwei Hauptthemen des Wandels, welche nahe legen, dass persönliche, intelligente Objekte Unternehmen dadurch verändern werden, dass vermehrt personen-gebundene, mobile Geräte zum Einsatz kommen. Objekte schlagen ihren Nutzern Tätigkeiten oder den gesamten Arbeitsablauf vor und versuchen gefährliche Situationen zu vermeiden. Gleichzeitig wird die Verfügbarkeit von Informationen im Unternehmen bis zur ubiquitären Präsenz steigen. Dies wird es letztlich ermöglichen, Informationen bezüglich Objekten und Personen jederzeit und an jedem Ort zu nutzen. Als Nebenergebnis gibt die vorliegende Arbeit einen Überblick über Konzepte der wissenschaftlichen Literatur im Bereich technologie-verknüpften Wandels in Organisationen.
The European weatherfish (Misgurnus fossilis) is a benthic freshwater fish species belonging to the family Cobitidae, that is subjected to a considerable decline in many regions across its original distribution range. Due to its cryptic behavior and low economic value, the causes of threat to weatherfish remained partly unknown and the species is rarely at the center of conservation efforts. In order to address these concerns, the overall aim of the present thesis was to provide a comprehensive approach for weatherfish conservation, including the development of stocking measures, investigations on the species autecology and the evaluation of potential threats. The first objective was to devise and implement a regional reintroduction and stock enhancement program with hatchery-reared weatherfish in Germany. Within this program (2014-2016), a total number of 168,500 juvenile weatherfish were stocked to seven water systems. Recaptures of 45 individuals at two reintroduction sites supported the conclusion that the developed stocking strategy was appropriate. In order to broaden the knowledge about weatherfish autecology and thereby refining the rearing conditions and the selection of appropriate stocking waters, the second objective was to investigate the thermal requirements of weatherfish larvae. Here, the obtained results revealed that temperatures higher than previously suggested were tolerated by larvae, whereas low temperatures within the range of likely habitat conditions increased mortality rates. As weatherfish can be frequently found in agriculturally impacted waters (e.g. ditch systems), they are assumed to have an increased probability to be exposed to chemical stress. Since the resulting risk has not yet been investigated with a focus on weatherfish, the third objective was to provide a methodical foundation for toxicity testing that additionally complies with the requirements of alternative test methods. For this purpose, the acute fish embryo toxicity test was successfully transferred to weatherfish and first results exhibited that sensitivity of weatherfish towards a tested reference substance (3,4-dichloroaniline) was highest compared to other species. On the basis of these findings, the fourth objective was to apply weatherfish embryos for multiple sediment bioassays in order to investigate teratogenic effects derived from sediment-associated contaminants. In this context, weatherfish revealed particular sensitivity to water extractable substances, indicating that sediment contamination might pose a considerable risk. Moreover, as an endangered benthic fish species with high ecological relevance for European waters that are specifically exposed to hazardous contaminants, the weatherfish might be a prospective species for an ecological risk assessment of sediment toxicity. Overall, the present thesis contributed to the conservation of weatherfish by considering a variety of aspects that interact and reinforce one another in order to achieve improvements for the species situation.
Diese Arbeit befasst sich mit verschiedenen Möglichkeiten zur Interaktion
mit dreidimensionalen, virtuellen Objekten in der realen Umgebung des
Nutzers. Im Vordergrund stehen Interaktionsmöglichkeiten, welche durch
neue AR-Technologien aufkommen.
Dazu wird ein spielerischer Prototyp einer Applikation für die von Microsoft
entwickelte HoloLens konzipiert und implementiert. Der Prototyp
des Spiels besteht aus drei Phasen. Die erste Phase ist die Aufnahme der
realen Umgebung des Nutzers. In der zweiten Phase kann der Nutzer die
reale Umgebung mit der Hilfe von virtuellen Objekten erweitern. In der
dritten Phase muss der Nutzer einen virtuellen Avatar durch die reale Umgebung
navigieren.
Die Interaktionsmöglichkeiten der HoloLens wie Gaze, Gesture und VoiceInput
werden in den Kategorien Menüführung, Positionierung von virtuellen
Objekten im dreidimensionalen Raum und Steuerung eines Avatars einer
Evaluation unterzogen.
In dieser Arbeit werden zwei Verfahren zur Berechnung der globalen Beleuchtung vorgestellt. Das Erste ist eine Erweiterung von Reflective Shadow-Maps um einen Schattentest, womit Verdeckungsbehandlung erreicht wird. Das zweite Verfahren ist ein neuer, auf Light-Injection basierender, bidirektionaler Ansatz. Dabei werden Strahlen aus Sicht der Lichtquelle verfolgt und in der Linespace Datenstruktur in Schächten gespeichert, die eine Diskretisierung der Raumrichtungen darstellen. Die Linespaces sind dabei in ein Uniform Grid eingebettet. Beim Auslesen der vorberechneten indirekten Beleuchtung sind im Idealfall keine Traversierung der Datenstruktur und keine weitere Strahlverfolgung mehr notwendig. Damit wird eine Varianzreduzierung und eine schnellere Berechnung im Vergleich zu Pathtracing erzielt, wobei sich insbesondere Vorteile in stark indirekt beleuchteten Bereichen und bei Glas ergeben. Die Berechnung der globalen Beleuchtung ist allerdings approximativ und führt zu sichtbaren Artefakten.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Im Zentrum der Arbeit steht die Frage, inwiefern erwachsenenpädagogische Professionalität und Qualitätsmanagement als je eigene Zugänge der Qualitätssicherung im Kontext der Weiterbildung miteinander kompatibel sind.
Diese Frage wird seit den 1990er Jahren diskutiert und stellt sich gegenwärtig neu, u.a. angesichts branchenspezifischer Ansätze wie der Lernerorientierten Qualitätstestierung in der Weiterbildung (LQW).
Zur Beantwortung werden einschlägige Vertreter des Professionalitäts- und Qualitätsmanagementzugangs aus einer handlungstheoretischen Perspektive vergleichend im Hinblick auf ihre Handlungsordnungen gegenübergestellt. Grundlage bildet eine kategoriengeleitete, heuristisch angelegte Dokumentenanalyse sowohl von Grundlagentexten als auch von Normen- und Anforderungskatalogen.
Die Untersuchung zeigt, dass die Passung differenziert und jenseits dichotomisierender Gegenüberstellungen von Pädagogik bzw. Profession und Organisation oder von Pädagogik und Ökonomie zu beurteilen ist:
Zum einen wird die Heterogenität der Einzelansätze deutlich, welche sich in unterschiedlichem Umfang als kompatibel zueinander erweisen. Zum anderen werden entlang einzelner Handlungsdimensionen sowohl Anschluss- als auch Bruchstellen sichtbar.
Als ein weiterer zentraler Befund lässt sich festhalten, dass auch die Art der Spannungsverhältnisse zwischen erwachsenenpädagogischer Professionalität und Qualitätsmanagement unterschieden werden muss:
Während die Spannungen zwischen den gegensätzlichen methodischen Strategien (z.B. zwischen professionellem Fallbezug und organisationaler Standardisierung) gradueller Natur sind und „bearbeitet“ werden können, zeigen sich zwischen den programmatischen Zweck- und Aufgabenbestimmungen kategoriale Unterschiede und antinomische Konstellationen.
So verweisen das professionelle Leitprinzip der Teilnehmerorientierung sowie die für die Qualitätsmanagement-Ansätze maßgebliche Kunden- bzw. Lernerorientierung auf jeweils eigene sowie voneinander abweichende Vermittlungskonzepte, die nicht widerspruchsfrei zusammengeführt werden können.
Der Markt der virtuellen Realität entwickelt sich derzeit besonders im Hinblick auf die Hardware kontinuierlich weiter. Infolgedessen ergeben sich immer weitere Anwendungsmöglichkeiten. Neben der Spielebranche bieten sich auch der Forschung neue Möglichkeiten. So lassen sich auch Wahrnehmungsphänomene mithilfe dieser Technologie erforschen. Die vorliegende Arbeit beschäftigt sich daher mit der Untersuchung des induzierten Roelofs Effekts in der virtuellen Realität sowie in der Wirklichkeit anhand eines Computerbildschirms. Dieser beschreibt eine Fehlwahrnehmung, die auftritt, wenn die individuelle Körpermitte und ein Rahmen, der ein optisches Zielobjekt umfasst, verschoben zueinander auftreten, was zu einer Fehllokalisierung des Objekts führt. Die folgende Untersuchung soll Aufschluss über die Beeinflussung durch den Rahmen eines Anzeigegeräts geben. Zudem werden Rückschlüsse über die Eignung der virtuellen Realität bezüglich der Wahrnehmungsforschung gezogen. Die Ergebnisse in der virtuellen Realität weisen ein stärkeres Maß der Wahrnehmungsverzerrung durch den Roelofs Effekt auf, wodurch der feste Rahmen eines Anzeigegeräts als zusätzliche Orientierungshilfe vermutet werden kann.
This thesis explores the possibilities of probabilistic process modelling for the Computer Supported Cooperative Work (CSCW) systems in order to predict the behaviour of the users present in the CSCW system. Toward this objective applicability, advantages, limitations and challenges of probabilistic modelling are excavated in context of CSCW systems. Finally, as a primary goal seven models are created and examined to show the feasibilities of probabilistic process discovery and predictions of the users behaviour in CSCW systems.
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.
Die deutsche Holzhausbranche wächst seit Jahren, allerdings beschäftigen sich die Unternehmen nicht strategisch mit dem Thema Marketing. Diese Dissertation bildet durch qualitative und quantitative Bewohnerbefragungen die Basis für die Entwicklung eines strategischen Marketingansatzes im Holzhausbereich.
Part-of-Speech tagging is the process of assigning words with similar grammatical properties to a part of speech (PoS). In the English language, PoS-tagging algorithms generally reach very high accuracy. This thesis undertakes the task to test against these accuracies in PoS-tagging as a qualitative measure in classification capabilities for a recently developed neural network model, called graph convolutional network (GCN). The novelty proposed in this thesis is to translate a corpus into a graph as a direct input for the GCN. The experiments in this thesis serve as a proof of concept with room for improvements.
Skalierbarkeit und garantierte Ausliererung sind essentielle Eigenschaften eines jeden Routingalgorithmus. Beides bietet bei drahtlosen Ad-hoc Netzwerken die Kombination aus Greedy- und Face- Routing, sofern ein planarer Graph zur Verfügung steht. Doch gerade die fehlerfreie Planarisierung bereitet bei realistischen Netzwerken Schwierigkeiten. Daher soll mit dieser Arbeit die Frage beantwortet werden, zu welcher Fehlerrate es führt, wenn der Graph lediglich mit lokalen Methoden teilplanarisiert wird. Dazu wurde eine Simulationsumgebung geschaffen, um unter Anwendung des Log-Normal-Shadowing-Modells zufällige Konnektivitätsgraphen zu generieren. Diese wurden anschließend durch zwei unterschiedliche, lokale Strategien teilplanarisiert. Es wurden neun verschiedene Settings definiert, die sich aus drei unterschiedlichen Graphendichten und drei unterschiedlichen Werten für den Sigmaparameter des Log-Normal-Shadowing-Modells ergeben. Für jedes Setting wurde in 2000 Simulationsdurchläufen das Verhalten von Greedy-, Face- und kombiniertem Greedy-Face-Routing untersucht und ausgewertet. Zum Abschluss wurden die Ergebnisse dieser Simulation bewertet und diskutiert.
The extensive literature in the data visualization field indicates that the process of creating efficient data visualizations requires the data designer to have a large set of skills from different fields (such as computer science, user experience, and business expertise). However, there is a lack of guidance about the visualization process itself. This thesis aims to investigate the different processes for creating data visualizations and develop an integrated framework to guide the process of creating data visualizations that enable the user to create more useful and usable data visualizations. Firstly, existing frameworks in the literature will be identified, analyzed and compared. During this analysis, eight views of the visualization process are developed. These views represent the set of activities which should be done in the visualization process. Then, a preliminary integrated framework is developed based on an analysis of these findings. This new integrated framework is tested in the field of Social Collaboration Analytics on an example from the UniConnect platform. Lastly, the integrated framework is refined and improved based on the results of testing with the help of diagrams, visualizations and textual description. The results show that the visualization process is not a waterfall type. It is the iterative methodology with the certain phases of work, demonstrating how to address the eight views with different levels of stakeholder involvement. The findings are the basis for a visualization process which can be used in future work to develop the fully functional methodology.
E-Learning Anwendungen sind heutzutage im Trend. Jedoch nicht nur aus diesem Grund sind sie vom großen Interesse. Im Vordergrund steht ihr didaktisches Konzept. Heutzutage ist es technisch möglich, die Teilnehmer interaktiv in einen
E- Learning Kurs einzubinden. Die Lernschritte können durch die Anwendung kontrolliert werden. Im Gegensatz zu einer Vorlesung, kann die Theorie direkt mit der Praxis verknüpft werden. Das Ziel der Arbeit ist die Erstellung eines Konzeptes und die Entwicklung eines Prototypen einer interaktiven Entwicklungsumgebung von Java für Programmieranfänger. In dieser Arbeit wurden aktuelle E-Learning Plattformen zu Java analysiert. Aus den gewonnen Erkenntnissen wurde ein Konzept für eine E-Learningplattform entwickelt. Dieses Konzept wurde erfolgreich als Prototyp implementiert. Für die Implementation wurden bewährte Technologien, wie das Django-Framework und das Javascript-Framework Vue.js eingesetzt. Der Kurs wurde von neun Teilnehmern getestet. Zusätzlich wurde eine Umfrage zu der Kursanwendung durchgeführt. Das Testergebnis bestätigt, dass die Teilnehmer den Kurs bestanden haben.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
Die vorliegende Bachelorarbeit untersucht Methoden der sozialen Netzwerkanalyse im Kontext von unternehmensinternen Kollaborationsplattformen und gibt einen Überblick über geeignete Kennzahlen anhand von literaturbasierten Erkenntnissen. Im Zuge dieser Literaturanalyse werden Vorteile der Social Network Analysis für Unternehmen, sowie mögliche Probleme, zum Beispiel in Bezug auf den Datenschutz erläutert. Anhand einer dynamischen Langzeitanalyse des Netzwerks der Plattform UniConnect wurde festgestellt, dass Zentralitätsmaße die Verbundenheit eines Akteurs im Netzwerk aufzeigen und Rückschlüsse auf die Stellung und Funktion des Mitarbeiters im Unternehmen ermöglichen. Außerdem kann durch eine Cliquenanalyse die Komplexität des Netzwerks festgestellt werden. Die Betrachtung der schrittweisen Entwicklung des Netzwerkes und ermöglicht das Auffinden von Personen, die in kürzester Zeit stark vernetzt sind. Solche Mitarbeiter sind im Kontext des Wissensmanagements und in Bezug auf die Informationsverbreitung von strategischer Bedeutung für Unternehmen.
Im Bereich Augmented Reality ist es von großer Bedeutung, dass virtuelle
Objekte möglichst realistisch in ein Kamerabild eingebettet werden. Nur
so ist es möglich, dem Nutzer eine immersive Erfahrung zu bieten. Dazu
gehört unter anderem, Verdeckung dieser Objekte korrekt zu behandeln.
Während schon verschiedene Ansätze existieren, dieses Verdeckungsproblem
zu beheben, wird in dieser Arbeit eine Lösung mittels Natural Image
Matting vorgestellt. Mit Hilfe einer Tiefenkamera wird das Kamerabild in
Vorder- und Hintergrund aufgeteilt und anschließend das virtuelle Objekt
im Bild platziert. Für Bereiche, in denen die Zugehörigkeit zu Vorder- oder
Hintergrund nicht eindeutig ist, wird anhand bekannter Pixel ein Transparenz-
Wert geschätzt. Es werden Methoden präsentiert, welche einen
Ablauf des Image Matting in Echtzeit ermöglichen. Zudem werden
Verbesserungsmöglichkeiten dieser Methoden präsentiert und gezeigt, dass
durch diese eine höhere Bildqualität für schwierige Szenen erreicht wird.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
In scientific data visualization huge amounts of data are generated, which implies the task of analyzing these in an efficient way. This includes the reliable detection of important parts and a low expenditure of time and effort. This is especially important for the big-sized seismic volume datasets, that are required for the exploration of oil and gas deposits. Since the generated data is complex and a manual analysis is very time-intensive, a semi-automatic approach could on one hand reduce the time required for the analysis and on the other hand offer more flexibility, than a fully automatic approach.
This master's thesis introduces an algorithm, which is capable of locating regions of interest in seismic volume data automatically by detecting anomalies in local histograms. Furthermore the results are visualized and a variety of tools for the exploration and interpretation of the detected regions are developed. The approach is evaluated by experiments with synthetic data and in interviews with domain experts on the basis of real-world data. Conclusively further improvements to integrate the algorithm into the seismic interpretation workflow are suggested.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz-Landau
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz-Landau für das Studienjahr 2017/2018
Neunzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz Landau
Siebzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Sechzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz Landau
Vierzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau
Ordnung zur Änderung der Einschreibeordnung für die Universität Koblenz-Landau
Semantische Daten zusammen mit General-Purpose-Programmiersprachen zu verwenden stellt nicht die einheitlichen Eigenschaften bereit, die man für eine solche Verwendung haben möchte. Die statische Fehlererkennung ist mangelhaft, insbesondere der statischen Typisierung anbetreffend. Basierend auf vorangegangener Arbeit an λ-DL, welches semantische Queries und Konzepte als Datentypen in ein typisiertes λ-Kalkül integriert, bringt dieses Werk dessen Ideen einen Schritt weiter, um es in eine Echtwelt-Programmiersprache zu integrieren. Diese Arbeit untersucht, wie λ-DLs Features erweitert und mit einer existierende Sprache vereinigt werden können, erforscht einen passenden Erweiterungsmechanismus und produziert Semantics4J, eine JastAdd-basierte Java-Sprachintegration für semantische Daten für typsichere OWL-Programmierung, zusammen mit Beispielen für ihre Verwendung.
Die vorliegende Doktorarbeit hatte zum Ziel zu prüfen, ob Emulsionspolymere auf Acrylatbasis als neuartige Photokatalysatoren bzw. Katalysatoren genutzt werden können.
Auf Grund der Beschaffenheit und der Eigenschaften von Emulsionspolymeren ist davon auszugehen, dass die Nutzung selbiger als Katalysatoren eine neue Art einer chemischen Katalyse ermöglicht. So sollen die Vorteile der heterogenen und homogenen Katalyse vereint und die jeweiligen Nachteile minimiert werden. Als besonders erfolgversprechend hat sich während der praktischen Arbeit die Nutzung von Emulsionspolymeren als Photokatalysatoren herausgestellt.
Die Anbindung der photokatalytisch aktiven Moleküle an/in den Polymerstrang soll kovalent erfolgen. Deshalb war ein erstes Teilziel dieser Arbeit prototypische Katalysatormoleküle zu synthetisieren, die über einen Acrylat-Substituenten verfügen, der in einer radikalischen Polymerisationsreaktion reagieren kann. Als Photokatalysatoren wurden Ruthenium- Polypyridin-Komplexe ausgewählt, die sowohl für eine inter- als auch intramolekulare Photokatalyse zur Herstellung von Wasserstoff aus Wasser geeignet sind. Für organokatalytische Zwecke wurde ein L-Prolin-Derivat synthetisiert, welches jedoch nicht auf seine Polymerisierbarkeit getestet wurde.
In einem ersten Schritt wurden die prototypischen 2,2’-Bipyridin-Liganden synthetisiert. Dabei konnte eine verbesserte Synthesemethode für 4-Brom-2,2’-bipyridin ausgearbeitet werden. Die Funktionalisierung erfolgte letztendlich durch eine Horner-Wadsworth-Emmons-Reaktion, die anschließend an eine Eintopfsynthese zur Darstellung von 4-Formyl-2,2’-biypridin erfolgte. Die prototypischen Photokatalysatoren zeigten mäßige Erfolge (TON: 37-136, 6h, 10% H2O, 470 nm) in Bezug auf die photokatalytische Wasserstoffproduktion, sodass an dieser Stelle eine Verbesserung der entsprechenden katalytischen Systeme erfolgen sollte.
Die Polymerisationsreaktion konnte für zwei intermolekulare Photokatalysatoren und zwei intramolekulare Photokatalysatoren durchgeführt werden. Dabei fiel auf, dass die intermolekularen Photokatalysatoren besser polymerisieren als die intramolekularen Photokatalysatoren. Es wird angenommen, dass dies mit der Löslichkeit der Substanzen im Monomer Ethylmethacrylat zusammen hängt.
Die photokatalytisch funktionalisierten Emulsionspolymere zeigten eine ähnliche photokatalytische Aktivität (TON: 9-101, 6h, 10% H2O, 470 nm) wie die jeweiligen Ausgangsstoffe selbst. Es konnte jedoch bewiesen werden, dass Emulsionspolymere als Photokatalysatoren genutzt werden können, wenn auch noch weitere Arbeiten zur Optimierung der Systeme nötig sind.
Die Anwendung von Chemikalien führt in vielen Fällen zu deren Emission in die Umwelt. Besonders organische Substanzen wie zum Beispiel Pharmazeutika, Biozide und Waschmittelinhaltsstoffe wurden in den letzten Jahren vermehrt als Umweltkontaminanten in Oberflächengewässern nachgewiesen. Die organischen Umweltkontaminanten, auch Spurenstoffe genannt, haben oftmals i) unbekannte ökotoxikologische Wirkungen, ii) unbekannte Verteilungsverhalten, und iii) sind bisher hinsichtlich der Emission kaum reguliert. Wie bei allen Substanzen können Spurenstoffe in der Umweltmatrix und insbesondere auch in der Kläranlage zu sogenannten Transformationsprodukten (TPs) umgewandelt werden. Um den durch Spurenstoffe verursachten Herausforderungen technologisch begegnen zu können, wird ein besseres Verständnis über diese Transformationsprozesse benötigt. Diese Dissertationsarbeit befasst sich deshalb mit der Aufklärung von Transformationsprozessen ausgewählter Spurenstoffe während der biologischen Abwasserreinigung.
Für die Untersuchung des Abbaus von Trimethoprim wurden Inkubationsversuche angewendet und die Auswirkung der steigenden Dotierungskonzentrationen systematisch untersucht. Es wurden insgesamt sechs TPs charakterisiert. Die Dotierungskonzentration hatte sowohl Auswirkungen auf die kinetischen Konstanten, als auch auf die Transformationsreaktionen. Ein solcher Einfluss der experimentellen Bedingungen wurde bisher in der Literatur noch nicht berichtet. Nur bei niedriger Dotierungskonzentration wurde am Ende des Transformationswegs ein stabiles TP gebildet, die 2,4-Diaminopyrimidin-5-carbonsäure (DAPC). Diese Substanz konnte in Laborversuchen den Großteil der abgebauten Menge von Trimethoprim erklären. Durch Untersuchungen an einer Referenzkläranlage konnte festgestellt werden, dass nur die Inkubationsversuche bei niedriger Dotierungskonzentration die realen Prozesse adäquat abbilden konnten. Die Anwendung hoher Dotierungskonzentrationen führte in Laborversuchen zu einer veränderten TP-Bildung.
Drei phenolische Spurenstoffe wurden in Bezug auf ihre Transformation, insbesondere hin zu potenziell toxischen nitrophenolischen TPs, untersucht: das Desinfektionsmittel ortho-Phenylphenol (OPP), das Kunststoffadditiv Bisphenol-A (BPA) und das Hustenmittel Dextrorphan. Nitrit wurde als ein potenzieller Auslöser für die Nitrierung postuliert. Inkubationsversuche in Reinstwasser wurden mit OPP in Anwesenheit von Nitrit durchgeführt und bestätigten, dass nitro-(und nitroso-) phenolische TPs unter leicht sauren Bedingungen gebildet werden. Da in kommunalen Kläranlagen der pH-Wert in Belebtschlamm zumeist zwischen 7,5 und 8,5 liegt und Nitrit als Zwischenprodukt oft nur in niedrigen Konzentration vorhanden ist, wurde die Bildung von signifikanten Konzentrationen nitrophenolischer TPs als unwahrscheinlich eingestuft. Aufgrund der Ergebnisse von Inkubationsversuchen mit inokulierten Belebtschlamm war festzustellen, dass die drei untersuchten Spurenstoffe schnell zu biologischen TPs umgewandelt wurden. Die Studie zeigte wie das Bildungspotenzial von nitrophenolischen TPs gesteigert wird, wenn bestimmte Bedingungen im Belebtschlamm vorliegen: saurer pH und erhöhte Nitritkonzentration. Zudem wurde auch gezeigt, dass die Bildung von nitrophenolischen TPs durch das Ansäuern oder das Einfrieren von Proben initiiert werden kann.
Die Transformation vom Antiphlogistikum Diclofenac wurde in zwei unterschiedlichen Kläranlagen verglichen. Die erste Kläranlage verwendet Aufwuchskörper für ein verstärktes Biofilmwachstum, während die zweite mit einer konventionellen nitrifizierenden Belebtschlammbehandlung ausgestattet ist. Trotz der unterschiedlichen Behandlungstechniken konnten in beiden Fällen ähnliche Transformationsreaktionen festgestellt werden. Der wesentliche Unterschied bestand in den veränderten Kinetiken: Geschwindigkeitskonstanten (kbiol) waren ca. 50 Mal höher in Kontakt mit Aufwuchskörpern als im konventionellen Belebtschlamm. Der Transformationsweg führte zur Bildung einer Vielzahl an gering konzentrierten TPs. Monitoring-Kampagnen an den zwei Kläranlagen wurden zur Bestätigung der Ergebnisse angeschlossen. In der konventionellen Kläranlage wurde keine signifikante Diclofenac Entfernung gemessen. Wohingegen im Aufwuchskörperreaktor eine mittlere Entfernung von 88% gemessen wurde. Damit wäre die vorgeschlagene Umweltqualitätsnorm von 0.05 μg/L möglicherweise auch ohne die Anwendung von weiteren Behandlungsschritten wie z.B. Aktivkohlefiltration oder Ozonung erreichbar.
Grünland in Europa wurde über die Jahrhunderte hinweg durch steigende Intensivierung der Landnutzung geprägt. Die agrarischen Veränderungen und Weiterentwicklungen formten und veränderten die Biodiversität und führten letztlich zu massivem Artenrückgang. Heutzutage ist davon auszugehen, dass die planetare Belastungsgrenze für die globale Biodiversität und insbesondere die Biodiversität von Grünland bereits erreicht wurde. Politische Entscheidungsträger und Umweltschützer suchen daher Maßnahmen, die den agrarökonomischen Zweck der Biomasseproduktion mit dem Schutz und Erhalt von Biodiversität sowie der Aufrechterhaltung von Ökosystemprozessen vereinen. In früheren Zeiten und insbesondere vor der Einführung mineralischer Stickstoffdünger war Landnutzung im Wesentlichen von den strukturellen Gegebenheiten der Landschaft abhängig. Die Entwicklung regionalspezifischer Bewirtschaftungsmaßnahmen förderte durch die Schaffung von Habitaten für speziell angepasste Arten und Artenzusammensetzungen eine hohe Diversität auf Landschaftsebene.
Staubewässerung war seit dem frühen Mittelalter bis ins 20. Jahrhundert eine europaweit verbreitete Bewirtschaftungsmaßnahme zur Ertragssteigerung. Diese Form der Bewässerung, bei der angrenzende Flüsse systematisch aufgestaut werden, um das Wasser in die Wiesen zu leiten und durch im Wasser geführte Sedimente einen Düngeeffekt hervorzurufen, war typisch für Wiesenbewirtschaftung im Flachland. Abhängig von den strukturellen Gegebenheiten wurden regionaltypische Abwandlungen der Bewässerungssysteme entwickelt und prägten somit die Flora und Fauna dieser sogenannten Wässerwiesen. Mineralische Dünger machten diese arbeitsintensive Bewirtschaftungsform weitestgehend unprofitabel, sodass diese heutzutage nur noch in wenigen Regionen reliktartig als Tradition erhalten blieb.
In den Queichwiesen nahe Landau in der Pfalz wird mit zwischenzeitlichen Unterbrechungen seit dem 15. Jahrhundert traditionelle Staubewässerung betrieben. Die vorliegende Studie nutzte die Queichwiesen als Modellregion, um sowohl Langzeit- als auch Kurzzeiteffekte der Staubewässerung auf die Biodiversität und Nährstoffverfügbarkeit zu
untersuchen. In einer umfassenden Vegetationskartierung konnten wir einen positiven Effekt der Bewässerung auf die Diversität sowohl auf lokaler als auch auf Landschaftsebeneverzeichnen. Eine höhere strukturelle Vielfalt durch die Förderung niedrigwüchsiger Arten legt zwar einen positiven Effekt auf die Diversität von Arthropoden (Orthodoptera, Carabidae, Spinnen) nahe, dieser konnte jedoch nicht gefunden werden. Nichtsdestotrotz zeigten sich die bewässerten Wiesen als ökologisch bedeutsames Habitat für Arthropodenarten feuchter Biotope. In einem kombinierten Labor- und Feldexperiment untersuchten wir die Veränderung der Nährstoffverfügbarkeit durch Bewässerung. Zwar ist heutzutage nicht mehr von einem
direkten Düngeeffekt durch im Wasser geführte Schlacken auszugehen, aber dennoch zeigte sich ein indirekter Düngeeffekt der Bewässerung durch eine kurzzeitig stark erhöhte Pflanzenverfügbarkeit von Makro- und Mikronährstoffen. Die Ausprägung dieses Nährstoffpeaks und somit die Ausnutzung des sekundären Düngeeffekts zeigte eine graduelle Abhängigkeit auf Artebene, die eine spezifische Vegetationsentwicklung durch die Bewässerung untermauern. Diese Resultate legen daher nahe, dass Staubewässerung von Wiesen eine extensive Bewirtschaftungsform ist, die Biodiversität auf verschiedenen Skalenebenen fördert und gleichzeitig den Einsatz von Düngern reduzieren kann. Die Abstimmung von Düngung und Bewässerung bedarf jedoch der lokalspezifischen Evaluation abiotischer und biotischer Gegebenheiten.
Hintergrund: Veränderte gesetzliche Rahmenbedingungen in der stationären Altenhilfe, die demografische Entwicklung mit dem steigenden Bedarf an Pflegekräften einerseits und die Tatsache, dass immer weniger Menschen aufgrund des Images des Berufes und der Arbeitsbedingungen in der Pflege tätig sein wollen andererseits, machen es notwendig neue Wege zu suchen. Die Träger im Sozial- und Gesundheitswesen sind gefordert, Konzepte zu entwickeln, die ihre Wirtschaftlichkeit sichern, gleichzeitig aber auch den Belastungen und der Unzufriedenheit von Mitarbeitenden entgegenwirken. Es braucht Gestaltungsräume, um Lösungen im Konflikt zwischen Anspruch und Machbarkeit zu finden und so dem alltäglichen Stress, der Mitarbeiterfluktuation und dem drohenden Leistungsabfall entgegenzuwirken. Durch das Praxisprojekt eines sozial-karitativen Trägers zur Implementierung einer ´Konstruktiven Konfliktkultur´ in einer stationären Altenhilfeeinrichtung sollte eine Organisationskultur geschaffen werden, in der Konflikte offen angesprochen werden, eine Offenheit für Veränderungsprozesse entsteht, Belastungen reduziert und die Mitarbeitenden an die Organisation gebunden werden. Dazu wurden drei pädagogische Interventionen entwickelt, durch die die Mitarbeitenden und die Führungskräfte in ihrer Konfliktfähigkeit geschult werden sollten. Methode: Die wissenschaftliche Begleitung dieses Praxisprojektes fand als Evaluationsstudie statt. Zu drei Erhebungszeitpunkten wurde eine repräsentative Mitarbeitergruppe dieser Einrichtung zu den Themen Konflikterleben, Führungsverhalten, Macht/ Regeln und Veränderungen durch qualitative Leitfadeninterviews befragt. Die Auswertung und Analyse der Daten erfolgte im Sinne der qualitativen Inhaltsanalyse nach Mayring und floss ein in eine formative Prozessevaluation der einzelnen Interventionen und einer summativen Effektevaluation zu Bewertung der Zielerreichung des Projektes. Ergebnis: Die einzelnen Interventionen des Projektes konnten nicht dazu beitragen, dass eine ´Konstruktiven Konfliktkultur´ nachhaltig entwickelt werden konnte. Zwar gab es in der Bewusstseinsspanne des Projektes einen expliziten Wissensgewinn, jedoch mehr bei den Führungskräften als bei den Mitarbeitenden. Die Führungskräfte sahen im Projekt einen Gewinn, für einen Teil der Mitarbeitenden war es sogar Zeitverschwendung. Anhand der Ergebnisse lassen sich drei Merkmale herauskristallisieren, die kennzeichnend sind für die zugrundeliegenden Denk-, Urteils-, und Handlungsstrukturen in sozialen Organisationen im Umgang mit Konflikten: Konflikte sind nicht wahrnehmbare Konstrukte der Alltagswelt. Sie manifestieren sich aufgrund fehlender Legitimation in Überforderung und eine ´Konstruktiven Konfliktkultur´ kann nicht auf das Wissen Einzelner aufbauen, sondern benötigt verbindliche Handlungsstrukturen für alle Organisationsmitglieder gleichermaßen. Ergebnisinterpretation: Durch die Einbeziehung wissenssoziologischer und konfliktsoziologischer Theorien und deren Einordnung in Institutionen – und Organisationstheorien konnten die Ergebnisse diskutiert und neue Erkenntnisse über Konflikte in Organisationen, die sich in drei Spannungsfeldern zeigen, gewonnen werden. Die Spannungsfelder bewegen sich zwischen dem Konflikt als nicht-wahrnehmbarem Alltagsphänomen auf der einen Seite und einer manifestierten Belastung auf der anderen Seite, dem Gewohnheitswissen im alltäglichen Umgang einerseits und einem fehlenden Handlungswissen andererseits, einer funktional-positiven Sicht hier und einer dysfunktional-negativen Sicht dort. Anhand dieser Spannungsfelder kann die Konfliktmentalität und ihre Entstehung und auch die Möglichkeit ihrer Veränderbarkeit reflektiert und können Erfolgsfaktoren für die Implementierung einer ´Konstruktiven Konfliktkultur´ entwickelt werden.
Schlussfolgerung: Wissen, Legitimation und Institutionalisierung und die Stärkung der Wahrnehmungen sind der Schlüssel für die Veränderung der Konfliktmentalität in sozialen Organisationen. Nachhaltigkeit erhält die Thematik aber erst, wenn alle Organisationsmitglieder eine gewisse Handlungsnotwendigkeit für sich erkennen. Aktuell steht die Organisationsentwicklung für den expliziten Veränderungswillen von Management, der jedoch auf ein gewisses Beharrungsvermögen von Mitarbeitenden trifft.
Natürliche Schädlingskontrolle und Bestäubung sind wichtige Ökosystemdienstleistungen für die Landwirtschaft. Diese können durch ökologische Landwirtschaft und naturnahe Lebensräume in der näheren oder weiteren Umgebung gefördert werden.
Das Potential naturnaher Lebensräume räuberische Fliegen(Kapitel 2 und 3)und Bienen (Kapitel 7) auf lokaler und Landschaftsebene zu fördern wurde in naturnahen Lebensräumen untersucht. Räuberische Fliegen bevorzugten verholzte Habitate und reagierten positiv auf die andschaftskomplexizität. Die Vielfalt von Bienen und die Häufigkeit von Honig- und Wildbienen in den naturnahen Lebensräumen wurde vor allem positiv von den vorhandenen Blütenressourcen beeinflusst.
Der Einfluss von ökologischer Landwirtschaft, angrenzenden naturnahen Lebensräumen und Landschaftskomplexizität auf natürliche Schädlingskontrolle (Kapitel 4) und Bestäubung (Kapitel 6) wurde in 18 Kürbisfeldern untersucht. Ökologische Landwirtschaft hatte keine starken Effekte auf die natürliche Schädlingskontrolle oder die Bestäubung von Kürbis. Die natürliche Schädlingskontrolle kann vor allem lokal durch das Blütenangebot in den angrenzenden Lebensräumen gefördert werden, weil dieses die Dichten der natürlichen Läusefeinde positiv beeinflusste und tendenziell die Läusedichte in den Kürbisfeldern reduzierte.
Kürbis ist ein beeindruckendes Beispiel für eine Schlüsselrolle von Wildbienen für den Bestäubungserfolg, weil Kürbis in Deutschland vor allem von Hummeln bestäubt wird trotz der höheren Besuchsdichten von Honigbienen. Die Bestäubung kann am besten durch Landschaftskomplexizität gefördert werden. Die Anzahl von Blütenbesuchen von Hummeln und infolgedessen auch die übertragene Pollenmenge wurden negativ von der landwirtschaftlich genutzten Fläche in der umgebenden Landschaft beeinflusst.
Der Einfluss von Läusedichten (Kapitel 8) und Bestäubung (Kapitel 5) auf den Kürbisertrag wurde ermittelt. Der Kürbisertrag wurde nicht beeinflusst von den beobachteten Läusedichten und war nicht bestäubungslimitiert bei der derzeitigen Menge an Bienenbesuchen.
Insbesondere naturnahe Lebensräume, die stetige und vielfältige Blütenressourcen bereitstellen, sind wichtig für Schädlingskontrolleure und Bestäuber. In Agrarlandschaften sollte ein ausreichender Anteil an verschiedenen Typen von naturnahen Lebensräumen erhalten und wiederhergestellt werden. Dadurch können natürliche Schädlingskontrolleure wie räuberische Fliegen, Bestäuber wie Hummeln,und die von ihnen geleistete Schädlingskontrolle und Bestäubung in Agrarlandschaften gefördert werden.
For a comprehensive understanding of evolutionary processes and for providing reliable prognoses about the future consequences of environmental change, it is essential to reveal the genetic basis underlying adaptive responses. The importance of this goal increases in light of ongoing climate change, which confronts organisms worldwide with new selection pressures and requires rapid evolutionary change to avoid local extinction. Thereby, freshwater ectotherms like daphnids are particularly threatened. Unraveling the genetic basis of local adaptation is complicated by the interplay of forces affecting patterns of genetic divergence among populations. Due to their key position in freshwater communities, cyclic parthenogenetic mode of reproduction and resting propagules (which form biological archives), daphnids are particularly suited for this purpose.
The aim of this thesis was to assess the impact of local thermal selection on the Daphnia longispina complex and to reveal the underlying genetic loci. Therefore, I compared genetic differentiation among populations containing Daphnia galeata, Daphnia longispina and their interspecific hybrids across time, space, and species boundaries. I revealed strongly contrasting patterns of genetic differentiation between selectively neutral and functional candidate gene markers, between the two species, and among samples from different lakes, suggesting (together with a correlation with habitat temperatures) local thermal selection acting on candidate gene TRY5F and indicating adaptive introgression. To reveal the candidate genes’ impact on fitness, I performed association analyses among data on genotypes and phenotypic traits of D. galeata clones from seven populations. The tests revealed a general temperature effect as well as inter-population differences in phenotypic traits and imply a possible contribution of the candidate genes to life-history traits. Finally, utilizing a combined population transcriptomic and reverse ecology approach, I introduced a methodology with a wide range of applications in evolutionary biology and revealed that local thermal selection was probably a minor force in shaping sequence and gene expression divergence among four D. galeata populations, but contributed to sequence divergence among two populations. I identified many transcripts possibly under selection or contributing strongly to population divergence, a large amount thereof putatively under local thermal selection, and showed that genetic and gene expression variation is not depleted specifically in temperature-related candidate genes.
In conclusion, I detected signs of local adaptation in the D. longispina complex across space, time, and species barriers. Populations and species remained genetically divergent, although increased gene flow possibly contributed, together with genotypes recruited from the resting egg bank, to the maintenance of standing genetic variation. Further work is required to accurately determine the influence of introgression and the effects of candidate genes on individual fitness. While I found no evidence suggesting a response to intense local thermal selection, the high resilience and adaptive potential regarding environmental change I observed suggest positive future prospects for the populations of the D. longispina complex. However, overall, due to the continuing environmental degradation, daphnids and other aquatic invertebrates remain vulnerable and threatened.
Campuszeitung Ausg. 1/2017
(2017)
Die Dissertation bietet einen internationalen Vergleich von Gestaltungsmustern der Flexibilitätssteuerung von Unternehmen mit Schwerpunkt auf die Automobilindustrie. Vor dem Hintergrund unterschiedlicher nationaler institutioneller Systeme werden betriebliche Flexibilitätsstrategien analysiert und deren Hintergründe und Funktionsweisen detailliert erläutert. Die Analyse institutioneller Rahmenbedingungen erfolgt mittels der "Varieties of Capitalism". Die Eruierung von Flexibilitätsstrategien basiert auf einer internationalen Fallstudie.
Mit dem Aufkommen von Head-Mounted Displays (HMDs) der aktuellen Generation erlangt Virtual Reality (VR) wieder großes Interesse im Feld von medizinischer Bildgebung und Diagnose. Exploration von CT oder MRT Daten in raumfüllender Virtual Reality stellt eine intuitive Anwendung dar. Allerdings gilt in Virtual Reality, dass das Aufrechterhalten einer hohen Bildwiederholungsrate noch wichtiger ist als bei konventioneller Benutzerinteraktion, die sitzend vor einem Bildschirm erfolgt. Es existieren starke wissenschaftliche Hinweise, die nahelegen, dass geringe Bildwiederholungsraten und hohe Latenzzeit einen starken Einfluss auf das Auftreten von Cybersickness besitzen. Diese Abschlussarbeit untersucht zwei praktische Ansätze, um den hohen Rechenaufwand von Volumenrendering zu überkommen. Einer liegt in der Ausnutzung von Kohärenzeigenschaften des besonders aufwändigen stereoskopischen Rendering Set-ups. Der Hauptbeitrag ist die Entwicklung und Auswertung einer neuartigen Beschleunigungstechnik für stereoskopisches GPU Raycasting. Zudem wird ein asynchroner Renderingansatz verfolgt, um das Ausmaß von Latenz im System zu minimieren. Eine Auswahl von Image-Warping Techniken wurden implementiert und systematisch evaluiert, um die Tauglichkeit für VR Volumenrendering zu bewerten.
Achte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Siebte Ordnung zur Änderung der Ordnung für die
Prüfung im Masterstudiengang Lehramt an berufsbildenden Schulen an der Universität Koblenz-Landau, der Hochschule Koblenz und der Philosophisch-Theologischen Hochschule Vallendar
Beitragsordnung der Studierendenschaft der Universität Koblenz-Landau, Campus Landau
Motion Capture bezeichnet das Aufnehmen, Weiterverarbeiten und auf ein 3D Modell Übertragen von reellen Bewegungen. Nicht nur in der Film- und Spieleindustrie schafft Motion Capture heute einen nicht mehr wegzudenkende Realismus in der Bewegung von Mensch und Tier. Im Kontext der Robotik, der medizinischen Bewegunsthearpie, sowie in AR und VR wird Motion Capture extensiv genutzt. Neben den etablierten optischen Verfah- ren kommen aber gerade in den letzen drei Bereichen auch vermehrt alternative Systeme, die auf Intertialsystemen (IMUs) basieren zum Einsatz, da sie nicht auf externe Kameras angewiesen sind und somit den Bewegungsraum deutlich weniger beschränken.
Schnell vorranschreitender technischer Fortschritt in der Herstellung solcher IMUs, erlaubt den Bau kleiner Sensoren die am Körper getragen werden können und die Bewegung an einen Computer übertragen. Die Entwicklung in der Anwendung von Inertialsystemen auf den Bereich des Motion Capture, steckt allerdings noch in den Kinderschuhen. Probleme wie Drift können bis- her nur durch zusätzliche Hardware, zur Korrektur der Daten, minimiert werden.
In der folgenden Masterarbeit wird ein IMU basiertes Motion Capture System aufgebaut. Dies umfasst den Bau der Hardware sowie die softwa- reseitige Verarbeitung der erhaltenen Bewegungsinformationen und deren Übertragung auf ein 3D Modell.
The Web contains some extremely valuable information; however, often poor quality, inaccurate, irrelevant or fraudulent information can also be found. With the increasing amount of data available, it is becoming more and more difficult to distinguish truth from speculation on the Web. One of the most, if not the most, important criterion used to evaluate data credibility is the information source, i.e., the data origin. Trust in the information source is a valuable currency users have to evaluate such data. Data popularity, recency (or the time of validity), reliability, or vagueness ascribed to the data may also help users to judge the validity and appropriateness of information sources. We call this knowledge derived from the data the provenance of the data. Provenance is an important aspect of the Web. It is essential in identifying the suitability, veracity, and reliability of information, and in deciding whether information is to be trusted, reused, or even integrated with other information sources. Therefore, models and frameworks for representing, managing, and using provenance in the realm of Semantic Web technologies and applications are critically required. This thesis highlights the benefits of the use of provenance in different Web applications and scenarios. In particular, it presents management frameworks for querying and reasoning in the Semantic Web with provenance, and presents a collection of Semantic Web tools that explore provenance information when ranking and updating caches of Web data. To begin, this thesis discusses a highly exible and generic approach to the treatment of provenance when querying RDF datasets. The approach re-uses existing RDF modeling possibilities in order to represent provenance. It extends SPARQL query processing in such a way that given a SPARQL query for data, one may request provenance without modifying it. The use of provenance within SPARQL queries helps users to understand how RDF facts arederived, i.e., it describes the data and the operations used to produce the derived facts. Turning to more expressive Semantic Web data models, an optimized algorithm for reasoning and debugging OWL ontologies with provenance is presented. Typical reasoning tasks over an expressive Description Logic (e.g., using tableau methods to perform consistency checking, instance checking, satisfiability checking, and so on) are in the worst case doubly exponential, and in practice are often likewise very expensive. With the algorithm described in this thesis, however, one can efficiently reason in OWL ontologies with provenance, i.e., provenance is efficiently combined and propagated within the reasoning process. Users can use the derived provenance information to judge the reliability of inferences and to find errors in the ontology. Next, this thesis tackles the problem of providing to Web users the right content at the right time. The challenge is to efficiently rank a stream of messages based on user preferences. Provenance is used to represent preferences, i.e., the user defines his preferences over the messages' popularity, recency, etc. This information is then aggregated to obtain a joint ranking. The aggregation problem is related to the problem of preference aggregation in Social Choice Theory. The traditional problem formulation of preference aggregation assumes a I fixed set of preference orders and a fixed set of domain elements (e.g. messages). This work, however, investigates how an aggregated preference order has to be updated when the domain is dynamic, i.e., the aggregation approach ranks messages 'on the y' as the message passes through the system. Consequently, this thesis presents computational approaches for online preference aggregation that handle the dynamic setting more efficiently than standard ones. Lastly, this thesis addresses the scenario of caching data from the Linked Open Data (LOD) cloud. Data on the LOD cloud changes frequently and applications relying on that data - by pre-fetching data from the Web and storing local copies of it in a cache - need to continually update their caches. In order to make best use of the resources (e.g., network bandwidth for fetching data, and computation time) available, it is vital to choose a good strategy to know when to fetch data from which data source. A strategy to cope with data changes is to check for provenance. Provenance information delivered by LOD sources can denote when the resource on the Web has been changed last. Linked Data applications can benefit from this piece of information since simply checking on it may help users decide which sources need to be updated. For this purpose, this work describes an investigation of the availability and reliability of provenance information in the Linked Data sources. Another strategy for capturing data changes is to exploit provenance in a time-dependent function. Such a function should measure the frequency of the changes of LOD sources. This work describes, therefore, an approach to the analysis of data dynamics, i.e., the analysis of the change behavior of Linked Data sources over time, followed by the investigation of different scheduling update strategies to keep local LOD caches up-to-date. This thesis aims to prove the importance and benefits of the use of provenance in different Web applications and scenarios. The exibility of the approaches presented, combined with their high scalability, make this thesis a possible building block for the Semantic Web proof layer cake - the layer of provenance knowledge.
Wurden Echtzeitanwendungen früher meist auf hochspezialisierter Hardware und mit eigens dafür entwickelten Betriebssystemen ausgeführt, so wird heutzutage oft auch handelsübliche Hardware eingesetzt, auf dem eine Variante des Linux-Kernels läuft.
Im Rahmen dieser Arbeit wurden Testverfahren aufgestellt und in Form einer Echtzeitanwendung implementiert, welche verschiedene Leistungsmerkmale des Linux-Kernels im Hinblick auf dessen Echtzeitfähigkeit messen.
Diese Tests wurden auf drei verschiedenen Kernel-Versionen ausgeführt. Anschließend wurden die Ergebnisse der Testreihen miteinander verglichen.
Die Erzählung Der Sandmann ist seit nun mehr zwei Jahrhunderten Bestandteil der deutschen Literaturhistorie. Als eines der bekanntesten Werke E.T.A. Hoffmanns hat es im Laufe der Zeit darüber hinaus seinen Platz unter anderem in der Oper, im Hörspiel und auch im Film gefunden. An dieser Stelle setzt die hier vorgelegte Arbeit an und untersucht Hoffmanns Novelle sowie eine filmische Umsetzung in Hinblick auf ihre (formalen und inhaltlichen) Eigenheiten. Das Ziel dieser Arbeit ist dabei die Beantwortung der Frage, ob die behandelten Motive als Leitmotive bezeichnet werden können, welche formalen Eigenheiten sie möglicherweise unterstützen und wie sich die Charakteristik der Erzählung inklusive der Motive für einen Film (beziehungsweise für ein Drehbuch) adaptieren lässt.
Zur unterstützten Repositionierung von Femurschaftfrakturen während der intramedullären Nagelung, wurde ein Assistenzsystem entwickelt. Grundprinzip der Anordnung ist die Kraftaufnahme der von den femuralen Muskeln und Bändern erzeugten Zugkräfte mittels einer Linearfahrbahn und Gewindestange. Dazu werden Schanzschrauben als Kochen-Maschinen Verbindung verwendet, was direkte Knochenfragmentmanipulation ermöglicht. Weiterhin wird die Justage der Position und Orientierung der Fragmente mittels weiterer eingebrachter Schanzschrauben und Anwendung der Joystick Technik durchgeführt. Dazu werden ein passiver Gelenkarm und ein Gelenkarm mit robotischem Manipulator verwendet. Dank einer seriellen Kinematik des Systems, wird nur geringer Arbeitsraum des Operateurs in Anspruch genommen. Die Zentrale Steuereinheit besteht aus einem eingebetteten System auf Basis eines ARMCortex-M0 Mikrocontrollers, auf welchem ein Echtzeitbetriebssystem zum Einsatz kommt. Somit ist es möglich, die verschiedenen Winkelstellungen der Gelenke des robotischen Arms mittels inverser Kinematik zu in Echtzeit berechnen und entsprechend Stellmotoren anzusteuern. Zur Lösung der inversen Kinematik Problems kommt der iterative FABRIK Algorithmus zum Einsatz. Neuartiges und einziges Steuerinterface für den Operateur ist ein Kraft Momenten Sensor auf optischer Basis. Der serielle Gelenkarm folgt somit stets der Bewegung des Operateurs. Insgesamt konnte mit dem Demonstratoraufbau eine Positionierungsgenauigkeit des Manipulators auf dem Gelenkarm von <0,1mm erreicht werden. Somit ist zu erwarten, dass durch den Einsatz eines solchen Assistenzsystems während der Repositionierung bei der intramedullären Nagelung eine massive Präzisionserhöhung erreicht werden kann. Außerdem ist eine erhebliche Reduzierung der Röntgenstrahlenexposition des Operateurs durch Einsatz dieses Systems möglich. Weiterhin ermöglicht es eine Kostensenkung durch Zeiteinsparung und Personalreduzierung.
Redaktionelle Korrektur betreffend die Ordnung zur
Änderung der Einschreibeordnung für die Universität
Koblenz-Landau
Ordnung zur Änderung der Beitragsordnung des
Studierendenwerks Koblenz
Ordnung zur Aufhebung der Prüfungsordnung für
den Bachelorstudiengang Anglistik und Medienmanagement
/ English Studies and Media Management
an der Universität Koblenz-Landau
Achtzehnte Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Sechzehnte Ordnung zur Änderung der Prüfungsordnung
für die Prüfung in den Masterstudiengängen
für das Lehramt an Grundschulen, das Lehramt
an Realschulen plus, das Lehramt an Förderschulen
sowie das Lehramt an Gymnasien an der Universität
Koblenz-Landau
Fünfzehnte Ordnung zur Änderung der Ordnung für
die Prüfung im lehramtsbezogenen Zertifikatsstudiengang
(Erweiterungsprüfung) an der Universität
Koblenz-Landau
Dreizehnte Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im Zwei-Fach-Bachelorstudiengang
an der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Gemeinsamen
Prüfungsordnung für die Bachelor- und Masterstudiengänge
des Fachbereichs Informatik an der Universität
Koblenz-Landau
Fünfte Ordnung zur Änderung der Ordnung für die
Prüfung im Bachelorstudiengang Umweltwissenschaften
und in den Masterstudiengängen Umweltwissenschaften
/ Environmental Sciences und
Ecotoxicology an der Universität Koblenz-Landau,
Campus Landau
Erste Ordnung zur Änderung der Gemeinsamen
Prüfungsordnung für den Bachelorstudiengang
„Mathematische Modellierung“ und den Masterstudiengang
„Mathematical Modeling of Complex Systems“
an der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Gemeinsamen
Prüfungsordnung für den Bachelorstudiengang
„Angewandte Naturwissenschaften“ und den Masterstudiengang
„Chemie und Physik funktionaler
Materialien“ an der Universität Koblenz-Landau
Zweite Ordnung zur Änderung der Prüfungsordnung
für Studierende des Bachelorstudiengangs
„Pädagogik“ (B.A.) und des Masterstudiengangs
„Erziehungswissenschaft mit dem Schwerpunkt
Forschung und Entwicklung in Organisationen“
(M.A.) des Fachbereichs 1: Bildungswissenschaften
an der Universität Koblenz-Landau, Campus Koblenz
Wahlordnung der örtlichen Studierendenschaft
der Universität Koblenz-Landau, Campus Landau
Ordnung zur Änderung der Einschreibeordnung für
die Universität Koblenz-Landau
Promotionsordnung des Fachbereichs 5: Erziehungswissenschaften
der Universität Koblenz-Landau
Erste Ordnung zur Änderung der Promotionsordnung
des Fachbereiches 6: Kultur- und Sozialwissenschaften
der Universität Koblenz–Landau
Änderungssatzung zur Satzung über die Festsetzung
von Zulassungszahlen an der Universität Koblenz-
Landau für das Studienjahr 2016/2017
Erste Ordnung zur Änderung der Ordnung für die
Eignungsprüfung Musik an der Universität Koblenz-
Landau
Siebzehnte Ordnung zur Änderung der Prüfungsordnung
für die Prüfung im lehramtsbezogenen Bachelorstudiengang
an der Universität Koblenz-
Landau
Erste Ordnung zur Änderung der Promotionsordnung des Fachbereiches 3: Mathematik / Naturwissenschaften der Universität Koblenz–Landau
Prüfungsordnung für den Bachelorstudiengang „Mensch und Umwelt: Psychologie, Kommunikation, Ökonomie“ an der Universität Koblenz-Landau, Campus Landau
Sechzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau
Fünfzehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Vierzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau
Der Fachbereich 4 (Informatik) besteht aus fünfundzwanzig Arbeitsgruppen unter der Leitung von Professorinnen und Professoren, die für die Forschung und Lehre in sechs Instituten zusammenarbeiten.
In jedem Jahresbericht stellen sich die Arbeitsgruppen nach einem einheitlichen Muster dar, welche personelle Zusammensetzung sie haben, welche Projekte in den Berichtszeitraum fallen und welche wissenschaftlichen Leistungen erbracht wurden. In den folgenden Kapiteln werden einzelne Parameter aufgeführt, die den Fachbereich in quantitativer Hinsicht, was Drittmitteleinwerbungen, Abdeckung der Lehre, Absolventen oder Veröffentlichungen angeht, beschreiben.
Der Fachbereich 4 (Informatik) besteht aus fünfundzwanzig Arbeitsgruppen unter der Leitung von Professorinnen und Professoren, die für die Forschung und Lehre in sechs Instituten zusammenarbeiten.
In jedem Jahresbericht stellen sich die Arbeitsgruppen nach einem einheitlichen Muster dar, welche personelle Zusammensetzung sie haben, welche Projekte in den Berichtszeitraum fallen und welche wissenschaftlichen Leistungen erbracht wurden. In den folgenden Kapiteln werden einzelne Parameter aufgeführt, die den Fachbereich in quantitativer Hinsicht, was Drittmitteleinwerbungen, Abdeckung der Lehre, Absolventen oder Veröffentlichungen angeht, beschreiben.
Im schulischen Kontext wird dem Prozess der Erkenntnisgewinnung in eigenverantwortlichen Lernprozessen immer mehr Bedeutung beigemessen. Experimentelles Arbeiten wird in den nationalen Bildungsstandards als Prozess beschrieben, welcher vier Teil-schritte durchläuft: (1) Fragestellung entwickeln, (2) Experimente durchführen, (3) Daten notieren und (4) Schlussfolgerung ziehen [1]. In der fachdidaktischen Forschung gibt es bisher keine Untersuchungen, die explizit den Teilschritt der Datenaufnahme und dessen Bedeutung behandeln.
In dieser Arbeit werden die unterschiedlichen Definitionen der naturwissenschaftlichen Protokollformen voneinander abgegrenzt sowie im Rahmen von drei Teilstudien die Bedeutung des Protokollierens für die Lernwirksamkeit untersucht. Zusätzlich wird eine Auswertungsmethode für die Qualität von Erarbeitungsprotokollen vorgestellt.
Diese Arbeit schlägt die Benutzung von MSR (Mining Software Repositories) Techniken zum Identifizieren von Software Entwicklern mit exklusiver Fachkenntnis zu spezifischen APIs und Programmierfachgebieten in Software Repositories vor. Ein versuchsweises Tool zum finden solcher “Islands of Knowledge” in Node.js Projekten wird präsentiert und in einer Fallstudie auf 180 npm packages angewandt. Dabei zeigt sich, dass jedes package im Durchschnitt 2,3 Islands of Knowledge hat, was dadurch erklärbar sein könnte, dass npm packages dazu tendieren nur einen einzelnen Hauptcontributor zu haben. In einer Umfrage werden die Verantwortlichen von 50 packages kontaktiert und nach ihrer Meinung zu den Ergebnissen des Tools gefragt. Zusammen mit deren Antworten berichtet diese Arbeit von den Erfahrungen, die mit dem versuchsweisen Tool gemacht wurden, und wie zukünftige Weiterentwicklungen noch bessere Aussagen über die Verteilung von Programmierfachwissen in Entwicklerteams machen könnten.