Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (249)
- Masterarbeit (91)
- Ausgabe (Heft) zu einer Zeitschrift (84)
- Bachelorarbeit (45)
- Diplomarbeit (27)
- Wissenschaftlicher Artikel (22)
- Studienarbeit (11)
- Konferenzveröffentlichung (10)
- Habilitation (4)
- Sonstiges (2)
Sprache
- Englisch (547) (entfernen)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (6)
- Software Engineering (6)
- Internet of Things (5)
- Biodiversität (4)
- Bluetooth (4)
- Bodenchemie (4)
- Landwirtschaft (4)
- Semantic Web (4)
- ecotoxicology (4)
Institut
- Fachbereich 4 (116)
- Institut für Informatik (83)
- Fachbereich 7 (78)
- Institut für Wirtschafts- und Verwaltungsinformatik (53)
- Institut für Computervisualistik (52)
- Institute for Web Science and Technologies (50)
- Institut für Management (30)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (24)
- Institut für Umweltwissenschaften (23)
- Fachbereich 8 (20)
English prepositions take only a small proportion of the language but play a substantial role. Although prepositions are of course also frequently used in English textbooks for secondary school, students fail to incidentally acquire them and often show low achievements in using prepositions correctly. The strategy commonly employed by language instructors is teaching the multiple senses of prepositions by rote which fails to help the students to draw links between the different meanings in usage. New findings in Cognitive Linguistics (CL) suggest a different approach to teaching prepositions and thus might have a strong impact on the methodologies of foreign language teaching and learning on the aspects of meaningful learning. Based on the Theory of Domains (Langacker, 1987), the notions of image schemas (Johnson, 1987) as well as the Conceptual Metaphor Theory (Lakoff & Johnson, 1980), the present study developed a CL-inspired approach to teaching prepositions, which was compared to the traditional teaching method by an empirical study conducted in a German school setting. Referring to the participants from the higher track and the medium track, who are at different proficiency levels, the results indicate that the CL-inspired teaching approach improved students" performance significantly more than the traditional approach in all the cases for the higher track and in some cases for the medium track. Thus, these findings open up a new perspective of the CL-inspired meaningful learning approach on language teaching. In addition, the CL-inspired approach demonstrates the unification of the integrated model of text and picture comprehension (the ITPC model) in integrating the new knowledge with related prior knowledge in the cognitive structure. According to the learning procedure of the ITPC model, the image schema as visual image is first perceived through the sensory register, then is processed in the working memory by conceptual metaphor, and finally it is integrated with cognitive schemata in the long term memory. Moreover, deep-seated factors, such as transfer of mother tongue, the difficulty of teaching materials, and the influence of prior knowledge, have strong effects on the acquisition of English prepositions.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
This paper presents a method for the evolution of SHI ABoxes which is based on a compilation technique of the knowledge base. For this the ABox is regarded as an interpretation of the TBox which is close to a model. It is shown, that the ABox can be used for a semantically guided transformation resulting in an equisatisfiable knowledge base. We use the result of this transformation to effciently delete assertions from the ABox. Furthermore, insertion of assertions as well as repair of inconsistent ABoxes is addressed. For the computation of the necessary actions for deletion, insertion and repair, the E-KRHyper theorem prover is used.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Wir präsentieren die konzeptuellen und technologischen Grundlagen einer verteilten natürlich sprachlichen Suchmaschine, die einen graph-basierten Ansatz zum Parsen einer Anfrage verwendet. Das Parsing-Modell, das in dieser Arbeit entwickelt wird, generiert eine semantische Repräsentation einer natürlich sprachlichen Anfrage in einem 3-stufigen, übergangsbasierten Verfahren, das auf probabilistischen Patterns basiert. Die semantische Repräsentation einer natürlich sprachlichen Anfrage wird in Form eines Graphen dargestellt, der Entitäten als Knoten und deren Relationen als Kanten repräsentiert. Die präsentierte Systemarchitektur stellt das Konzept einer natürlich sprachlichen Suchmaschine vor, die sowohl in Bezug auf die einbezogenen Vokabulare, die zum Parsen der Syntax und der Semantik einer eingegebenen Anfrage verwendet werden, als auch in Bezug auf die Wissensquellen, die zur Gewinnung von Suchergebnissen konsultiert werden, unabhängig ist. Diese Funktionalität wird durch die Modularisierung der Systemkomponenten erreicht, die externe Daten durch flexible Module anspricht, welche zur Laufzeit modifiziert werden können. Wir evaluieren die Leistung des Systems indem wir die Genauigkeit des syntaktischen Parsers, die Präzision der gewonnenen Suchergebnisse sowie die Geschwindigkeit des Prototyps testen.
Chemical plant protection is an essential element in integrated pest management and hence, in current crop production. The use of Plant Protection Products (PPPs) potentially involves ecological risk. This risk has to be characterised, assessed and managed.
For the coming years, an increasing need for agricultural products is expected. At the same time, preserving our natural resources and biodiversity per se is of equally fundamental importance. The relationship of our economic success and cultural progress to protecting the environment has been made plain in the Ecosystem Service concept. These distinct 'services' provide the foundation for defining ecological protection goals (Specific Protection Goals, SPGs) which can serve in the development of methods for ecological risk characterisation, assessment and management.
Ecological risk management (RM) of PPPs is a comprehensive process that includes different aspects and levels. RM is an implicit part of tiered risk assessment (RA) schemes and scenarios, yet RM also explicitly occurs as risk mitigation measures. At higher decision levels, RM takes further risks, besides ecological risk, into account (e.g., economic). Therefore, ecological risk characterisation can include RM (mitigation measures) and can be part of higher level RM decision-making in a broader Ecosystem Service context.
The aim of this thesis is to contribute to improved quantification of ecological risk as a basis for RA and RM. The initial general objective had been entitled as "… to estimate the spatial and temporal extent of exposure and effects…" and was found to be closely related to forthcoming SPGs with their defined 'Risk Dimension'.
An initial exploration of the regulatory framework of ecological RA and RM of PPPs and their use, carried out in the present thesis, emphasised the value of risk characterisation at landscape-scale. The landscape-scale provides the necessary and sufficient context, including abiotic and biotic processes, their interaction at different scales, as well as human activities. In particular, spatially (and temporally) explicit landscape-scale risk characterisation and RA can provide a direct basis for PPP-specific or generic RM. From the general need for tiered landscape-scale context in risk characterisation, specific requirements relevant to a landscape-scale model were developed in the present thesis, guided by the key objective of improved ecological risk quantification. In principle, for an adverse effect (Impact) to happen requires a sensitive species and life stage to co-occur with a significant exposure extent in space and time. Therefore, the quantification of the Probability of an Impact occurring is the basic requirement of the model. In a landscape-scale context, this means assessing the spatiotemporal distribution of species sensitivity and their potential exposure to the chemical.
The core functionality of the model should reflect the main problem structures in ecological risk characterisation, RA and RM, with particular relationship to SPGs, while being adaptable to specific RA problems. This resulted in the development of a modelling framework (Xplicit-Framework), realised in the present thesis. The Xplicit-Framework provides the core functionality for spatiotemporally explicit and probabilistic risk characterisation, together with interfaces to external models and services which are linked to the framework using specific adaptors (Associated-Models, e.g., exposure, eFate and effect models, or geodata services). From the Xplicit-Framework, and using Associated-Models, specific models are derived, adapted to RA problems (Xplicit-Models).
Xplicit-Models are capable of propagating variability (and uncertainty) of real-world agricultural and environmental conditions to exposure and effects using Monte Carlo methods and, hence, to introduce landscape-scale context to risk characterisation. Scale-dependencies play a key role in landscape-scale processes and were taken into account, e.g., in defining and sampling Probability Density Functions (PDFs). Likewise, evaluation of model outcome for risk characterisation is done at ecologically meaningful scales.
Xplicit-Models can be designed to explicitly address risk dimensions of SPGs. Their definition depends on the RA problem and tier. Thus, the Xplicit approach allows for stepwise introduction of landscape-scale context (factors and processes), e.g., starting at the definitions of current standard RA (lower-tier) levels by centring on a specific PPP use, while introducing real-world landscape factors driving risk. With its generic and modular design, the Xplicit-Framework can also be employed by taking an ecological entity-centric perspective. As the predictive power of landscape-scale risk characterisation increases, it is possible that Xplicit-Models become part of an explicit Ecosystem Services-oriented RM (e.g., cost/benefit level).
Diese Habilitationsschrift befasst sich mit den Auswirkungen von Schadstoffen auf Süßwasser-Ökosysteme und betrachtet dabei verschiedene Schadstofftypen (Pestizide, generelle organische Schadstoffe, Sanität) und biotische Endpunkte (taxonomische Gemeinschafsstruktur, merkmalsbezogene Gemeinschafsstruktur, Ökosystemfunktionen).
Die Habilitationsschrift besteht aus 12 peer-reviewed internationalen Publikationen zu diesen Themen. Alle Studien beruhen auf Daten aus Mesokosmen und Feldstudien, oder auf der Analyse von Daten des biologischen und chemischen Monitorings. Weitere Details zu den individuellen Publikationen finden sich in der englischen Zusammenfassung.
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
Iterative Signing of RDF(S) Graphs, Named Graphs, and OWL Graphs: Formalization and Application
(2013)
When publishing graph data on the web such as vocabulariesrnusing RDF(S) or OWL, one has only limited means to verify the authenticity and integrity of the graph data. Today's approaches require a high signature overhead and do not allow for an iterative signing of graph data. This paper presents a formally defined framework for signing arbitrary graph data provided in RDF(S), Named Graphs, or OWL. Our framework supports signing graph data at different levels of granularity: minimum self-contained graphs (MSG), sets of MSGs, and entire graphs. It supports for an iterative signing of graph data, e. g., when different parties provide different parts of a common graph, and allows for signing multiple graphs. Both can be done with a constant, low overhead for the signature graph, even when iteratively signing graph data.
Autonome Systeme, wie Roboter, sind bereits Teil unseres täglichen Lebens. Eine Sache, in der Menschen diesen Maschinen überlegen sind, ist die Fähigkeit, auf sein Gegenüber angemessen zu reagieren. Dies besteht nicht nur aus der Fähigkeit zu hören, was eine Person sagt, sondern auch daraus, ihre Mimik zu erkennen und zu interpretieren.
In dieser Bachelorarbeit wird ein System entwickelt, welches automatisch Gesichtsausdrücke erkennt und einer Emotion zuordnet. Das System arbeitet mit statischen Bildern und benutzt merkmalsbasierte Methoden zur Beschreibung von Gesichtsdaten. In dieser Arbeit werden gebräuchliche Schritte analysiert und aktuelle Methoden vorgestellt. Das beschriebene System basiert auf 2D-Merkmalen. Diese Merkmale werden im Gesicht detektiert. Ein neutraler Gesichtsausdruck wird nicht als Referenzbild benötigt. Das System extrahiert zwei Arten von Gesichtsparametern. Zum einen sind es Distanzen, die zwischen den Merkmalspunkten liegen. Zum anderen sind es Winkel, die zwischen den Linien liegen, die die Merkmalspunkte verbinden. Beide Arten von Parametern werden implementiert und getestet. Der Parametertyp, der die besten Ergebnisse liefert, wird schließlich in dem System benutzt. Eine Support Vector Machine (SVM) mit mehreren Klassen klassifiziert die Parameter. Das Ergebnis sind Kennzeichen von Action Units des Facial Action Coding Systems (FACS). Diese Kennzeichen werden einer Gesichtsemotion zugeordnet.
Diese Arbeit befasst sich mit den sechs Basisgesichtsausdrücken (glücklich, überrascht, traurig, ängstlich, wütend und angeekelt) plus dem neutralen Gesichtsausdruck. Das vorgestellte System wird in C++ implementiert und an das Robot Operating System (ROS) angebunden.
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
From September 4 to 11, 1992, a fiirst meeting between Ukrainian and German scientists interested in mathematical and computer modeling of social processes was held at Vorzel' near Kiev. The meeting had been planned for nearly three years by Igor V. Chernenko and Mikhail V. Kuz'min, then members of the research group on mathematical modeling in sociology at the Institute of Sociology of the Academy of Science of the Ukrainian Republic, and had to be postponed twice due to the political development in the former Soviet Union, but thanks to the organizers' perseverance (and in spite of a strike of the airport personell at Kiev Borispol Airport on the eve of the conference) the conference could at last be realized.rnThe main purpose of the conference was to discuss a synergetic interpretation of large-scale destructive social processes as catastrophic phenomena in self-organized systems.
This paper originates from the FP6 project "Emergence in the Loop (EMIL)" which explores the emergence of norms in artificial societies. Part of work package 3 of this project is a simulator that allows for simulation experiments in different scenarios, one of which is collaborative writing. The agents in this still prototypical implementation are able to perform certain actions, such as writing short texts, submitting them to a central collection of texts (the "encyclopaedia") or adding their texts to texts formerly prepared by other agents. At the same time they are able to comment upon others' texts, for instance checking for correct spelling, for double entries in the encyclopaedia or for plagiarisms. Findings of this kind lead to reproaching the original authors of blamable texts. Under certain conditions blamable activities are no longer performed after some time.
Etwa 50 % der Fläche Europas werden landwirtschaftlich genutzt. Dennoch gibt es nahezu keine Information ob Fledermäuse diese Flächen beispielsweise zur Nahrungsaufnahme nutzen. Aufgrund der limitierten Datenbasis mangelt es auch an Schutzkonzepten, die mögliche negative Effekte der landwirtschaftlichen Intensivierung auf die Fledermäuse und deren Nahrungsgrundlage ausgleichen könnten. Da die Exposition von Fledermäusen mit Pflanzenschutzmitteln bislang nicht thematisiert wurde, sind im europäischen Zulassungsverfahren für Pflanzenschutzmittel keine Risikoabschätzungen für Fledermäuse gefordert. Um für Fledermäuse die mögliche Exposition gegenüber Pflanzenschutzmitteln abschätzen zu können, sind Informationen über Vorkommen und Aktivität von Fledermäusen in landwirtschaftlich genutzten Flächen erforderlich. Die Erfassung von Fledermäusen auf einer Vielzahl von Flächen machte es notwendig sich im Vorfeld auf eine geeignete Methodik festzulegen. Die akustische Fledermauserfassung ist im Gegensatz zu deutlich zeitaufwändigeren Methoden wie Netzfang, Telemetrie oder direktes Beobachten die einzige logistisch durchführbare Methode. In der wissenschaftlichen Literatur werden jedoch bei vielen bisher durchgeführten akustischen Methoden Bedenken bezüglich der Berücksichtigung zeitlicher und räumlicher Varianz und der Eignung der verwendeten Detektorsysteme geäußert. Deshalb wurden verschiedene Methoden und Detektorsysteme verglichen und das parallele Beproben mit mehreren stationären und kalibrierten automatischen Aufnahmesystemen als die am besten geeignete Methode zur verlässlichen und vergleichbaren Fledermausaktivitäts-Erfassung befunden.
Mit dieser Methode wurden die Fledermaus-Diversitäten und Aktivitäten in verschiedenen landwirtschaftlichen Kulturen, Wiesen und Wäldern aufgenommen. Außerdem wurde gleichzeitig die Verfügbarkeit von fliegenden Insekten (potentieller Fledermausbeute) mit Licht- oder Klebefallen erfasst. In mehr als 500 Erfassungsnächten wurden circa 110,000 akustische Fledermaus-Rufsequenzen und nahezu 120,000 nachtaktive Insekten gesammelt. Insgesamt wurden 14 Fledermausarten nachgewiesen, darunter die im Gebiet sehr seltene und stark bedrohte Nordfledermaus (Eptesicus nilssonii) und die Mopsfledermaus (Barbastella barbastellum). Alle Arten wurden auch auf landwirtschaftlich genutzten Flächen detektiert.
Die Landwirtschaft im südlichen Rheinland-Pfalz ist durch Weinanbau geprägt. Die Untersuchungen zeigten, dass Weinberge aufgrund der geringen Verfügbarkeit an kleineren nachtaktiven Insekten für die meisten Fledermausarten nur eine geringe Qualität als Jagdgebiet haben. Ein weiterer paarweiser Vergleich von Weinbergen und benachbarten Regenrückhaltebecken bezüglich Nahrungsverfügbarkeit und Fledermausaktivität zeigte, dass Regenrückhaltebecken wichtige Nahrungshabitate im Weinbaugebiet darstellen. Das Anlegen dieser künstlichen Kleingewässer ist somit eine geeignete Methode um Nahrungshabitate für Fledermäuse zu schaffen und damit den negativen Effekten der konventionellen Landwirtschaft hinsichtlich der Nahrungsverfügbarkeit entgegenzuwirken. In anderen landwirtschaftlichen Kulturen wurden mit den parallel untersuchten Wald- und Wiesenhabitaten vergleichbar hohe Insektenvorkommen und Fledermausaktivitäten nachgewiesen. Besonders hohe Fledermausaktivitäten so wie eine besonders hohe Verfügbarkeit von geeigneten Nahrungstieren wurden in Apfelplantangen und Gemüsefeldern gemessen. Da diese beiden Kulturen hohem Pestizidaufwand unterliegen, kann eine Exposition von Fledermäusen gegenüber Pflanzenschutzmitteln dort nicht ausgeschlossen werden. Um das zurzeit verwendete Verfahren zur Risikoabschätzung von Pflanzenschutzmittel-anwendungen auf Vögel und Säuger auf Fledermäuse zu übertragen, wurden nach Applikation eines Insektizides dessen Rückstände auf Fledermaus-artspezifischen Beuteinsekten gemessen. Parallel dazu wurde die Fledermausaktivität erfasst. Die höchsten Pestizidrückstände wurden auf kronenbewohnenden Insekten und Spinnen nachgewiesen. Die darauf basierende Risikoabschätzung deutet auf ein Langzeitrisiko für alle Fledermausarten, die sich wenigstens zum Teil von kronenbewohnenden Arthropoden ernähren, hin. Das Vorkommen von Fledermäusen in landwirtschaftlichen Flächen, die einen Großteil der europäischen, aber auch der weltweiten Fläche ausmachen, führt je nach Kultur zur Exposition von Fledermäusen durch kontaminierte Nahrung oder zu einer Verringerung von Beuteinsekten. Bisher konzentrierten sich Schutzbemühungen auf die Sicherung von Winterquartieren und die Bereitstellung künstlicher Tagesquartiere. Potentielle Effekte von Pflanzenschutzmitteln auf Agrarflächen haben aber möglicherweise einen entscheidenden Einfluss auf die Populationsgrößen von Fledermausarten die in diesen Gebieten vorkommen. Aus diesem Grund sollten die Effekte von Pflanzenschutzmitteln auf Fledermäuse untersucht werden, insbesondere bei der Risikoabschätzung im Pflanzenschutzmittel-Zulassungsverfahren.
Diese Arbeit befasst sich mit der Evaluation verschiedener Erste Hilfe Applikationen für Smartphones. Diese werden mit der App "DefiNow!", welche von der Universität Koblenz entwickelt wurde, verglichen. Hierbei liegt der Schwerpunkt der Evaluation auf der Usability basierend auf den Softwareergonomischen Prinzipien der Iso Norm 9241-110.
Eine Usability Studie mit 74 Teilnehmern wurde durchgeführt und die daraus resultierenden Ergebnisse genutzt um die bestehende App "Defi Now!" hinsichtlich ihrer Usability zu optimieren.
Weltweit sind ein Drittel bis die Hälfte der Flusskrebsarten von Populationsrückgang oder Aussterben bedroht. Neben einer Verschlechterung der Habitate, Umweltverschmutzung und anderen vom Menschen verursachten Umweltveränderungen stellen eingeschleppte exotische Arten und Krankheitserreger eine große Bedrohung für das Überleben europäischer Flusskrebsarten dar. Flusskrebse sind die größten Wirbellosen in limnischen Systemen und haben einen entsprechend großen Einfluss auf die Struktur der Nahrungsnetze. Das Verschwinden von Flusskrebsen aus einem Gewässer kann Nahrungsnetze verändern und somit dramatische Konsequenzen für ein Ökosystem zur Folge haben. Ein Ziel im modernen Artenschutz ist die Erhaltung der genetischen Vielfalt. Eine hohe genetische Vielfalt ist für das langfristige Überleben einer Art von Vorteil.
Das Hauptziel meiner Arbeit war es, die genetische Struktur des gefährdeten Edelkrebses (Astacus astacus) in seinem europäischen Verbreitungsgebiet zu untersuchen und die besonders schützenswerten genetische 'Hotspots' zu identifizieren (Teil 1 der Dissertation). Die größte Bedrohung für die Diversität europäischer Flusskrebsarten stellt der Krebspesterreger Aphanomyces astaci dar. Daher muss die Verbreitung des Krankheitserregers bei Schutzprogrammen beachtet werden.
Im zweiten Teil der Dissertation untersuchte ich neue Aspekte der Verbreitung von A. astaci. Die Ergebnisse dienen als Grundlage für zukünftige Artenschutzprogramme für Flusskrebse.
Im ersten Teil dieser Arbeit führte ich eine phylogeographische Analyse der Edelkrebse durch, um genetische 'Hotspots' zu identifizieren und die nacheiszeitliche Wiederbesiedlung Zentraleuropas durch diese Art zu rekonstruieren. Mit mitochondrialer DNA und nuklearen Mikrosatelliten-Markern ermittelte ich eine hohe genetische Vielfalt in Südosteuropa, die darauf hinweist, dass der Edelkrebs die kalten Klimaphasen des Pleistozäns in diesem Gebiet überdauerte (Appendix 1). Wegen der hohen genetischen Vielfalt ist Südosteuropa von besonderer Bedeutung für den Schutz des Edelkrebses. Die mitochondriale DNA-Analyse deutet auf eine gegabelte Kolonisierung vom unteren Donaueinzugsgebiet in a) das Einzugsgebiet der Nordsee und b) das Einzugsgebiet der Ostsee hin (Kapitel 2). Ein zweites, unabhängiges Refugium, welches im westlichen Balkan lokalisiert wurde, hat vermutlich nicht zur Besiedlung Mitteleuropas beigetragen. Außerdem stellte ich fest, dass die natürliche genetische Struktur teilweise überlagert ist, wahrscheinlich aufgrund des hohen menschlichen Einflusses auf die Verbreitung des Edelkrebses (bspw. künstliche Translokation). Im zweite Teil dieser Arbeit konnte ich mittels real-time-PCR ermitteln, dass neben den bekannten drei nordamerikanischen Flusskrebsarten auch Kalikokrebse (Orconectes immunis) Träger des Krebspesterregers sind (Kapitel 3). Des Weiteren habe ich den Krebspesterrreger in der unteren Donau in Rumänien an amerikanischen Kamberkrebsen (Orconectes limosus) und europäischen Galizierkrebsen (Astacus leptodactylus) nachweisen können (Kapitel 4). Die Ausbreitung der infizierten Kamberkrebse bis in die untere Donau stellt eine große Bedrohung für die Artenvielfalt in Südosteuropa dar und zeigt das hohe Invasionspotential der Kamberkrebse. Darüber hinaus stellte ich fest, dass auch einheimische Galizierkrebse im Donaudelta, etwa 970 km hinter der aktuellen Invasionsfront des Kamberkrebses, Träger von A. astaci sind (Kapitel 5). Diese Erkenntnis ist von besonderer Bedeutung, da die einheimischen Arten offenbar nicht an der Infektion leiden. Die Untersuchung koexistierender Populationen europäischer und amerikanischer Flusskrebse ergab, dass die Abwesenheit des Krebspesterregers in diesen Populationen die wahrscheinlichste Erklärung für die erfolgreiche Koexistenz in den untersuchten Gewässern in Mitteleuropa ist (Kapitel 6). Die Ergebnisse meiner Dissertation zeigen neue Aspekte, die von hoher Relevanz für den Schutz und Erhalt einheimischer Flusskrebsarten und deren genetischer Vielfalt sind: 1)Die genetische Diversität des Edelkrebses ist in Südosteuropa am höchsten. Dort überdauerten Edelkrebse die letzte Eiszeit in mindestens zwei unabhängigen Refugien. 2) Nicht alle amerikanischen Flusskrebspopulationen sind Träger der Krebspest und 3) nicht alle europäischen Flusskrebspopulationen sterben innerhalb kurzer Zeit an einer Infizierung mit dem Krebspesterreger. Um einheimische Flusskrebse und deren (genetische) Vielfalt langfristig zu erhalten, dürfen keine weiteren amerikanischen Flusskrebse in der Natur ausgesetzt werden. Das unbefugte Aussetzen wird jedoch erst zurückgehen, wenn der Handel mit exotischen Flusskrebsen verboten wird.
Various best practices and principles guide an ontology engineer when modeling Linked Data. The choice of appropriate vocabularies is one essential aspect in the guidelines, as it leads to better interpretation, querying, and consumption of the data by Linked Data applications and users.
In this paper, we present the various types of support features for an ontology engineer to model a Linked Data dataset, discuss existing tools and services with respect to these support features, and propose LOVER: a novel approach to support the ontology engineer in modeling a Linked Data dataset. We demonstrate that none of the existing tools and services incorporate all types of supporting features and illustrate the concept of LOVER, which supports the engineer by recommending appropriate classes and properties from existing and actively used vocabularies. Hereby, the recommendations are made on the basis of an iterative multimodal search. LOVER uses different, orthogonal information sources for finding terms, e.g. based on a best string match or schema information on other datasets published in the Linked Open Data cloud. We describe LOVER's recommendation mechanism in general and illustrate it alongrna real-life example from the social sciences domain.
Agricultural pesticides, especially insecticides, are an integral part of modern farming. However, these may often leave their target ecosystems and cause adverse effects in non- target, especially freshwater ecosystems, leading to their deterioration. In this thesis, the focus will be on Insect Growth Regulators (IGRs) that can in many ways cause disruption of the endocrine system of invertebrates. Freshwater invertebrates play important ecological, economic and medical roles, and disruption of their endocrine systems may be crucial, considering the important role hormones play in the developmental and reproductive processes in organisms. Although Endocrine Disruption Chemicals (EDCs) can affect moulting, behaviour, morphology, sexual maturity, time to first brood, egg development time, brood size (fecundity), and sex determination in invertebrates, there is currently no agreement upon how to characterize and assess endocrine disruption (ED). Current traditional ecotoxicity tests for Ecological Risk Assessment (ERA) show limitations on generating data at the population level that may be relevant for the assessment of EDCs, which effects may be sublethal, latent and persist for several generations of species (transgenerational).
It is therefore the primary objective of this thesis to use a test method to investigate adverse effects of EDCs on endpoints concerning development and reproduction in freshwater invertebrates. The full life-cycle test over two generations that includes all sensitive life stages of C. riparius (a sexual reproductive organism) allows an assessment of its reproduction and should be suitable for the investigation of long-term toxicity of EDCs in freshwater invertebrates. C. riparius is appropriate for this purpose because of its short life cycle that enables the assessment of functional endpoints of the organism over several generations. Moreover, the chironomid life cycle consists of a complete metamorphosis controlled by a well-known endocrine mechanism and the endocrine system of insects has been most investigated in great detail among invertebrates. Hence, the full life-cycle test with C. riparius provides an approach to assess functional endpoints (e.g. reproduction, sex ratio) that are population-relevant as a useful amendment to the ERA of EDCs. In the laboratory, C. riparius was exposed to environmentally-relevant concentrations of the selected IGRs in either spiked water or spiked sediment scenario over two subsequent generations.
The results reported in this thesis revealed significant effects of the IGRs on the development and the reproduction of C. riparius with the second (F1) generation showing greater sensitivity. These findings indicated for the first time the suitability of multigenerational testing for various groups of EDCs and strongly suggested considering the full life-cycle of C. riparius as an appropriate test method for a better assessment of EDCs in the freshwater environment. In conclusion, this thesis helps to detect additional information that can be extrapolated at population level and, thus, might contribute to better protection of freshwater ecosystems against the risks of Endocrine Disrupting Chemicals (EDCs.) It may furthermore contribute to changes in the ERA process that are necessary for a real implementation of the new European chemical legislation, REACH (Registration, Evaluation Authorization and Restriction of Chemicals). Finally, significant interactions between temperature, chemical exposure and generation were reported for the first time and, may help predict impacts that may occur in the future, in the field, under predicted climate change scenarios.
Concept for a Knowledge Base on ICT for Governance and Policy Modelling regarding eGovPoliNet
(2013)
Das EU-Projekt eGovPoliNet beschäftigt sich mit der Forschung und Entwicklung im Bereich der Informations- und Kommunikationstechnologien (IKT) für Steuerung und Politikgestaltung. Zahlreiche Communities verfolgen in diesem Themenbereich ähnliche Ziele der IT-unterstützten, strategischen Entscheidungsfindung und Simulation sozialer Problemfelder. Die vorhandenen Lösungsansätze sind bislang jedoch recht fragmentiert. Ziel von eGovPoliNet ist es in diesem Zusammenhang der Fragmentierung zu begegnen und durch die Förderung der Kooperation von Forschung und Praxis einen internationalen, offenen Dialog zu etablieren. Dieser wird durch die Beteiligung der Akteure auf diesem Gebiet der IKT die Diskussion und Entwicklung verschiedener Problemfelder voranbringen. Hierbei werden Akteure aus Forschung und Praxis ihre Expertise und Best-Practice Erkenntnisse teilen, um Politikanalyse, Modellierung und Steuerung zu unterstützen. eGovPoliNet wird zur Unterstützung dieses Dialogs eine Wissensbasis bereitstellen, deren konzeptuelle Ausarbeitung Gegenstand dieser Arbeit ist. Die Wissensbasis soll mit Inhalten aus dem Bereich der IKT zur strategischen Entscheidungsfindung und Simulation sozialer Problemfelder gefüllt werden, beispielsweise mit Publikationen, Softwarelösungen, oder Projektbeschreibungen. Diese Inhalte gilt es zu strukturieren, nutzenstiftend zu organisieren und zu verwalten, sodass die Wissensbasis letztendlich als Quelle gesammelten Wissens dient, welche die bislang fragmentierten Forschungs- und Entwicklungsergebnisse an zentraler Stelle vereint.
Ziel dieser Arbeit ist es also, ein Konzept einer Wissensbasis zu entwerfen, welches die nötige Struktur und die nötigen Funktionen bietet, Wissen bezüglich IKT-Lösungen zu verwalten. Das bedeutet in diesem Zusammenhang Wissen zu sammeln, aufzubereiten und dem Nutzer zugänglich zu machen. Die Wissensbasis soll außerdem nach Inhalten durchsuchbar sein. Desweiteren sollen die Nutzer motiviert werden, selbstständig an der Weiterentwicklung und Pflege der Wissensbasis mitzuwirken.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
The paper deals with a specific introduction into probability propagation nets. Starting from dependency nets (which in a way can be considered the maximum information which follows from the directed graph structure of Bayesian networks), the probability propagation nets are constructed by joining a dependency net and (a slightly adapted version of) its dual net. Probability propagation nets are the Petri net version of Bayesian networks. In contrast to Bayesian networks, Petri nets are transparent and easy to operate. The high degree of transparency is due to the fact that every state in a process is visible as a marking of the Petri net. The convenient operability consists in the fact that there is no algorithm apart from the firing rule of Petri net transitions. Besides the structural importance of the Petri net duality there is a semantic matter; common sense in the form of probabilities and evidencebased likelihoods are dual to each other.
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
Wildschweine gehören zu den meist verbreiteten Huftieren der Welt. Die Wildschweinpopulation in Deutschland stieg in den letzten drei Jahrzehnten deutlich an. Heutzutage führt deren hohe Dichte zu Schäden auf landwirtschaftlichen Flächen und spielt eine wichtige Rolle bei der Ausbreitung von Krankheiten. Für ein effektives Wildschwein Management sind Informationen über absolute Populationszahlen von höchster Bedeutung. Es existieren verschiedene traditionelle Methoden wie z.B. die direkte Beobachtung der Tiere, das Zählen ihrer Losungen oder die Auswertung der Statistiken zu Jagderträgen, die nur relative Schätzungen oder Populationstrends liefern. Absolute Populationszahlen könnte der Fang-Markier-Wiederfang Ansatz hervorbringen. Nichtsdestotrotz ist das Fangen von Wildschweinen schwer zu realisieren und kostenaufwendig in Bezug auf die hierzu benötigten Arbeitskräfte und den Feldarbeitsaufwand.
Weiterhin sind die Fangwahrscheinlichkeiten heterogen aufgrund der Verhaltensvariabilitaet der Individuen, die durch Alter, Geschlecht und Erfahrung der Tiere bedingt ist. Nicht-invasive genetische Verfahren sind vielversprechender gegenüber den traditionellen Methoden der Populationsgrößenschätzung speziell für Wildschweine. Denn zum Einen reduzieren diese Methoden den Stressfaktor der Tiere und senken Fangfehler und zum Anderen erhöhen sie die Zahl indirekter Beobachtungen. Kot eignet sich sehr gut als DNS-Quelle für die Wildschwein Genotypisierung, da dieser eine nahezu gleiche Erfassungswahrscheinlichkeit für alle Tiere gewährleistet. Nichtsdestotrotz bringt das Arbeiten mit Kot Schwierigkeiten mit sich, die sich in in einer geringen DNS Qualität und Quantität oder Genotypisierungsfehlern äußern. Das Hauptziel der vorliegenden Arbeit war die Entwicklung einer zuverlässigen, kostengünstigen, reproduzierbaren und praktikablen Methode zur Genotypisierung von Wildschweinen. Diese Methode sollte einen zuverlässigen Genotypendatensatz liefern, der aus der Genotypisierung gesammelter Kotproben stammte. Individuelle Identifikation bildet die Basis für einen anzuwendenden Fang-Markierung-Wiederfang Ansatz. Da es bisher keine vergleichbaren Untersuchungen zu Populationsschätzungen von Wildscheinen gibt, fehlen Referenzdaten zum nicht-invasiven Ansatz. Daher wurden verschiedene Versuche zur Reduzierung und Quantifizierung der Genotypisierungsfehlerraten (GFR) getestet, verglichen und evaluiert. Um die Amplifizierungsrate zu erhöhen wurden Hälterungs- und DNS-Isolationsverfahre optimiert. Ein Schritt für Schritt Ansatz zur Bestimmung der minimal erforderlichen Anzahl von Mikrosatelliten Marker wurde entwickelt, welcher einen Test mit nahverwandten Individuen (Mütter und deren Föten) beinhaltete, um sogar diese voneinander zu unterscheiden. Ein so genanntes Multitube-Verfahren wurden angewendet um die GFR zu reduzieren. Die Quantifizierung von GFR aus erhobenen Datensätzen wurde evaluiert indem verschiedene Methoden zur GFR-Bestimmung getestet und miteinander verglichen wurden, hierbei ergaben sich GFR zwischen 0% bis 54%. Als Konsequenz dessen wurden die Kriterien für das Multitube-Verfahren verschärft, indem die Anzahl der Wiederholungen von homozygoten Proben erhöht wurde. Eine zusätzliche Validierung in Form eines Blindtests wurde etabliert, um die Zuverlässigkeit der Genotypisierung und Fehlerkorrekturen zu bekräftigen.
Abschließend wurde ein strikter und praktikabler Verfahrenvorschlag entwickelt, beginnend beim Sammeln der Kotproben und endend mit dem Erhalt eines zuverlässigen Datensatzes mit Genotypen einzelner Proben.
Die Ergebnisse der hier präsentierten Methode aus zwei Beprobungen 2006 und 2007 in einem 4000 ha großen Areal im Pfälzer Wald führte zu ungenauen Schätzungen mit hohen Konfidenzintervallen (KI). So lag die geschätzte Populationsgrösse in der Beprobung 2006 bei 215 Individuen, was 156-314 (KI 95%) Individuen entspricht. Die Populationsschätzung 2007 brachte 415 Individuen hervor, was 315-561 (KI 95%) Individuen entspricht. Dies ließ auf zu niedrige Stichproben (2006 betrug n = 141, 2007 n = 326), zu wenig erfolgreich analysierte Proben (2006 n = 89, 2007 n = 156) und/ oder zu wenig Wiederfänge (2006 n = 12, 2007 n = 24) schließen. Zudem ergaben die Schätzungen sogar deutlich höhere Populationszahlen als zuvor durch Jagderträge vermutet wurde, was auf eine uneffektive Bejagungsstrategie in dem Studienareal hindeutet. Für den zukünftigen Ausblick ist es unabdingbar die Stichprobenzahl deutlich zu erhöhen um die Validität und Reliabiltät der Populationsschätzungen zu gewährleisten, da diese für das Wildmanagement und die epidemiologischen Lösungsstrategien von höchster Bedeutung sind. Nichtsdestotrotz konnte die im Rahmen dieser Arbeit entwickelte Methode zur individuellen Wildschwein Genotypisierung erfolgreich etabliert werden. Die daraus resultierenden Datensets zur Modellierung von Populationschätzungen sind zuverlässig und weisen eine ausreichend geringe reale Genotypisierungsfehlerrate auf.
Virtual Goods + ODRL 2012
(2012)
This is the 10th international workshop for technical, economic, and legal aspects of business models for virtual goods incorporating the 8th ODRL community group meeting. This year we did not call for completed research results, but we invited PhD students to present and discuss their ongoing research work. In the traditional international group of virtual goods and ODRL researchers we discussed PhD research from Belgium, Brazil, and Germany. The topics focused on research questions about rights management in the Internet and e-business stimulation. In the center of rights management stands the conception of a formal policy expression that can be used for human readable policy transparency, as well as for machine readable support of policy conformant systems behavior up to automatic policy enforcement. ODRL has proven to be an ideal basis for policy expressions, not only for digital copy rights, but also for the more general "Policy Awareness in the World of Virtual Goods". In this sense, policies support the communication of virtual goods, and they are a virtualization of rules-governed behavior themselves.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Schema information about resources in the Linked Open Data (LOD) cloud can be provided in a twofold way: it can be explicitly defined by attaching RDF types to the resources. Or it is provided implicitly via the definition of the resources´ properties.
In this paper, we analyze the correlation between the two sources of schema information. To this end, we have extracted schema information regarding the types and properties defined in two datasets of different size. One dataset is a LOD crawl from TimBL- FOAF profile (11 Mio. triple) and the second is an extract from the Billion Triples Challenge 2011 dataset (500 Mio. triple). We have conducted an in depth analysis and have computed various entropy measures as well as the mutual information encoded in this two manifestations of schema information.
Our analysis provides insights into the information encoded in the different schema characteristics. It shows that a schema based on either types or properties alone will capture only about 75% of the information contained in the data. From these observations, we derive conclusions about the design of future schemas for LOD.
Die Magnetresonanztomographie (MRT) ist ein bildgebendes Verfahren, das in der medizinischen Diagnostik zur Darstellung von Struktur und Funktion der Gewebe und Organe im Körper eingesetzt wird. Diffusionsgewichtete Bildgebung ist ein spezielles bildgebendes MRT Verfahren, welches es ermöglicht, nichtinvasiv und in vivo Einblicke in den Verlauf von Nervenbahnen zu geben. Es erlaubt damit, Aussagen über die Struktur und Integrität dieser Verbindungsbahnen zu treffen. Im klinischen Alltag findet diese Modalität Anwendung in der neurochirurgischen Operationsplanung, wie beispielsweise bei Resektionen von Läsionen, die in wichtigen funktionellen oder tiefiegenden Arealen liegen, wo die Beschädigungsgefahr wichtiger Nervenbahnen gegeben ist. Kommt es im Zuge der Operation zu einer etwaigen Durchtrennung von wichtigen Bahnen, kann dies zu erheblichen funktionellen Beeinträchtigung führen. Diese Arbeit gibt eine Einführung in die MRT-Bildgebung und wird sich im Speziellen mit der Aufnahme von diffusionsgewichtetenMRT- Daten beschäftigen. Generell besteht das Problem, dass das Auflösungsvermögen von Diffusionsdaten relativ niedrig ist in Relation zum Aufnahmeobjekt. So werden in einem einzelnen 3D Volumenelement, auch Voxel genannt, eine Reihe von Nerventrakten abgebildet, die sich beispielsweise kreuzen, aufsplitten oder auffächern. Hier besteht die Notwendigkeit, diese Voxel zu identifizieren und zu klassifizieren, um auch in schwierigen Regionen aus den lokalen Diffusionsdaten die Verläufe von Nervenbündeln möglichst exakt zu rekonstruieren. Diese Rekonstruktion wird durch die sogenannte Traktographie realisiert. Im Zuge dieser Arbeit werden wir existierende Rekonstruktionsmethoden, wie beispielsweise diffusion tensor imaging (DTI) und q-ball imaging (QBI) auf synthetisch generierten Daten untersuchen. Wir werden herausstellen, welche wertvollen Informationen die rekonstruierten Daten liefern können und welche individuellen Einschränkungen es gibt. QBI rekonstruiert eine orientation distribution function (ODF), deren lokalen Maxima in vielen Fällen mit den Richtungen der Nervenbahnen übereinstimmen. Wir bestimmen diese lokalen Maxima. Auf den Metriken des Diffusionstensors wird eine neue voxelbasierte Klassifikation vorgestellt. Die Vereinigung von voxelbasierter Klassifikation, lokalen Maxima und globalen Informationen aus der Nachbarschaft eines Voxels ist der Hauptbeitrag dieser Arbeit und führt zur Entwicklung eines globalen Klassifikators, der mögliche Traktographie-Richtungen vorgibt und asymmetrische Konfigurationen ermittelt. Im Anschluss wird ein eigener Traktographie-Algorithmus vorgestellt, der auf den Ergebnissen des globalen Klassifikators arbeitet und somit auch Aufsplittungen von Nervenbahnen abbilden kann.
The objective of this contribution is to conceptually analyze the potentials of entrepreneurial design thinking as being a rather new method for entrepreneurship education. Based on a literature review of different design thinking concepts we carve out a generic design thinking model upon we conceptually build a new model that considers entrepreneurial thinking as a valuable characteristic.
The results of our work show that the characteristics of entrepreneurial design thinking can enhance entrepreneurship education by supporting respective action fields of entrepreneurial learning. In addition we reveal that entrepreneurial design thinking offers beneficial guidelines for the design of entrepreneurship education programs.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
In dieser Arbeit wird der Nutzen von GPGPU (Allzweckberechnungen auf Grafikprozessoren) zur robusten Deskription von natürlichen, markanten Bildmerkmalen mit Hilfe der Grafikprozessoren mobiler Geräte bewertet. Dazu wurde der SURF-Deskriptor [4] mit OpenGL ES 2.0/GLSL ES 1.0 implementiert und dessen Performanz auf verschiedenen mobilen Geräten ausgiebig evaluiert. Diese Implementation ist um ein Vielfaches schneller als eine vergleichbare CPU-Variante auf dem gleichen Gerät. Die Ergebnisse belegen die Tauglichkeit moderner, mobiler Grafikbeschleuniger für GPGPU-Aufgaben, besonders für die Erkennungsphase von NFT-Systemen (Tracking mit natürlichen, markanten Bildmerkmalen), die in Augmented-Reality-Anwendungen genutzt werden. Die nötigen Anpassungen am Algorithmus des SURF-Deskriptors, um diesen effizient auf mobilen GPUs nutzen zu können, werden dargelegt. Weiterhin wird ein Ausblick auf ein GPGPU-gestütztes Tracking-Verfahren gegeben.
Particle Swarm Optimization ist ein Optimierungsverfahren, das auf der Simulation von Schwärmen basiert.
In dieser Arbeit wird ein modifizierter Algorithmus, der durch Khan et al. 2010 eingeführt wurde, zur Schätzung der lokalen Kamerapose in 6DOF verwendet. Die Poseschätzung basiert auf kontinuierlichen Farb-und Tiefendaten, die durch einen RGB-D Sensor zur Verfügung gestellt werden. Daten werden von unterschiedlichen Posen aufgenommen und als gemeinsames Model registriert. Die Genauigkeit und Berechnungsdauer der Implementierung wird mit aktuellen Algorithmen verglichen und in unterschiedlichen Konfigurationen evaluiert.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Das Ziel dieser Masterarbeit ist, dass der Roboter Lisa komplexe Befehle verarbeiten und Information aus einem Kommando extrahieren kann, die benötigt werden, um eine komplexe Aufgabe als eine Sequenz von kleineren Aufgaben auszuführen. Um dieses Ziel zu erreichen wird das Bild, das Lisa von ihrer Umgebung hat, mit semantischen Informationen angereichert. Diese Informationen werden in ihre Karte eingefügt werden. Es wird angenommen, dass der komplexe Befehl bereits geparst worden ist. Deshalb ist die Verarbeitung des Inputs, um daraus einen geparsten Befehl zu erstellen, kein Teil dieser Masterarbeit. Die Karten, die Lisa aufbaut, werden mit semantischen Anmerkungen annotiert. Zu diesen Anmerkungen gehört jede Art von Informationen, die nützlich zur Ausführung allgemeiner Aufgaben sein könnte. Das kann zumBeispiel eine hierarchische Klassifizierungen von Orten, Objekten und Flächen sein. Die Abarbeitung des Befehls mit den zugehörigen Informationen über die Umgebung wird eine Sequenz von Aufgaben auslösen. Diese Aufgaben sind die bereits implementierten Fähigkeiten von Lisa, wie zum Beispiel Objekterkennung oder Navigation. Das Ziel dieser Masterarbeit ist aber nicht nur, die vorhandenen Aufgaben zu nutzen, sondern auch das Hinzufügen von neuen Aufgaben zu erleichtern.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Ausgehend von Zwei-Prozess-Modellen der Informationsverarbeitung beschäftigt sich die vorliegende Forschungsarbeit mit der Frage, inwieweit die explizite Ekelsensitivität, vermittelt über die Selbstwahrnehmung automatischer Verhaltenscues, an die implizite Ekelsensitivität angepasst wird. Im Unterschied zu vorangegangenen Studien (Hofmann et al., 2009), die einen "blind spot" für die Selbst-, nicht aber für die Fremdwahrnehmung automatischer Verhaltenscues folgerten, wurde in der vorliegenden Forschungsarbeit in zwei Studien eine Anpassung der expliziten an die implizite Ekelsensitivität gemäß der Selbstwahrnehmungshypothese gezeigt. In Studie 1 (N = 75) wurde die prädiktive Validität eines indirekten Ekelsensitivitätsmaßes mit Hilfe einer doppelten Dissoziation belegt. Studie 2 (N = 117) untersuchte die Selbstwahrnehmungshypothese. Gegenüber den Studien von Hofmann et al. (2009) wurde eine modifizierte Selbstwahrnehmungsprozedur verwendet: (a) Das Verhalten wurde mehrmals zurückgemeldet, wobei jeweils eine geringere Anzahl an Verhaltenscues beurteilt wurde, (b) als Domäne wurde die Emotion Ekel mit klaren, eindeutigen automatischen Verhaltenscues (Gesichtsausdruck, Körperbewegungen) verwendet, (c) neben einem globalen, wurde ein spezifisches explizites Ekelsensitivitätsmaß eingesetzt. In Studie 3 (N = 130) wurden die Ergebnisse von Studie 2 repliziert. Weiterhin wurden mit Display Rules und Need for Closure Moderatoren der prädiktiven Validität und des Selbstwahrnehmungs- und Adaptionsprozesses untersucht. Die Moderatoreffekte weisen darauf hin, dass sowohl das Zeigen von Ekel im Gesichtsausdruck, als auch die Wahrnehmung des eigenen Ekel-Gesichtsausdrucks einer selbstbilddienlichen Verzerrung unterworfen sind. Praktische Implikationen und Anregungen für zukünftige Forschung werden diskutiert.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.