Filtern
Erscheinungsjahr
- 2012 (111) (entfernen)
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (29)
- Dissertation (23)
- Diplomarbeit (22)
- Bachelorarbeit (21)
- Masterarbeit (11)
- Studienarbeit (4)
- Konferenzveröffentlichung (1)
Schlagworte
- Vorlesungsverzeichnis (7)
- Customer Relationship Management (3)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- DOCHOUSE (2)
- E-Government (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Petri-Netze (2)
- Tablet PC (2)
Institut
- Fachbereich 4 (67)
- Zentrale Einrichtungen (16)
- Fachbereich 8 (8)
- Institut für Informatik (6)
- Fachbereich 7 (4)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (4)
- Institut für Wirtschafts- und Verwaltungsinformatik (4)
- Fachbereich 5 (3)
- Institute for Web Science and Technologies (3)
- Institut für Germanistik (2)
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
Grundordnung der Universität Koblenz-Landau.
Dritte Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang "Psychologie" des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
In dieser Bachelorarbeit wurde ein Tangible Augmented Reality Spiel für Android entwickelt, das einen Mehrwert gegenüber herkömmlichen Computer oder Augmented Reality Spielen haben soll. Der Hauptteil der Arbeit erklärt das Spielkonzept, Entwicklung und die Evaluation des Spiels. Bei der Evaluation wurde das Flow-Erleben, als Maß für den Spielspaß, druch Nutzertest ausgewertet und das erstellte Spiel mit anderen Smartphone-Spielen verglichen. Außerdem werden Augmented Reality, Tangible User Interface und Tangible Augmented Reality vorgstellt und deren Vor- und Nachteile erläutert. Die Geschichte von Augmented Reality wird auch vorgestellt.
In dieser Diplomarbeit wurde ein System entwickelt, dass eine Navigation für Fußgänger ermöglicht. Wie beabsichtigt wurde das System für die Benutzung auf einem iPhone realisiert.
Obwohl die Karten der neuen Generation vonNAVTEQ sich noch in Entwicklung befinden, konnten erste Eindrücke gesammelt werden, wie die Navigation der Fußgänger in Zukunft aussehen wird. Das System arbeitet aber auch mit Kartendaten von OpenStreetMap, die die klassische Repräsentation der Kartendaten haben. Die Positionierung kann später, wenn der Galileo-Empfänger zur Verfügung steht, umgestellt werden und Positionsdaten mit höherer Präzision für die Navigation bereitstellen. Die Routenberechnung konnte mit einem CH-ähnlichen Verfahren durch Vorberechnung beschleunigt werden und erlaubt trotzdem eine Änderung des Profils, ohne dass eine neue Vorberechnung nötig ist. Anders als beim einfachen CH, wo nach einer Änderung des Profils für die Berechnung der Routenkosten eine neue Vorberechnung nötig ist, die im Vergleich zu der Berechnung einer Route aufwendig ist. In Abbildung 8.1 ist die demonstrative Navigation mit dem fertigen System abgebildet. Diese zeigt eine Berechnung der Routen für 3 unterschiedliche Profile, die unterschiedliche Steigungsgrade bevorzugen. Daraus ergeben sich unterschiedliche Routen.
Die Nutzung mehrerer Merkmalsräume führt zu einer Steigerung der Erkennungsrate. Jedoch darf die Menge der für einen Merkmalsvektor gespeicherten Daten nicht zu großrnwerden, da es sonst zu Laufzeitproblemen in der zeitkritischen Erkennungsphase kommt. Der Vergleichsaufwand steigt stark an, da aus dem zu analysierenden Bild annährend dieselbe Menge Daten generiert werden müssen und mit allen Objektdaten aus der Objektdatenbank verglichen werden müssen. Hierbei könnte ein Baumstruktur innerhalb der Objektdatenbank helfen, die mittels abstrakter Objekte in den oberen Ebenen eine Vorselektierung anhand bestimmter Merkmalsvektorwerte trifft und damit unnötige Vergleichsoperationen verhindern. Im Allgemeinen berücksichtigen die wenigsten Objekterkennungsmethoden den semantischen als auch realen Kontextes eines Objektes, welche für die menschliche Wahrnehmung eine essentielle Bedeutung hat. Dieses Merkmal könnte man neben den anderen in dieser Arbeit vorgestellten Merkmalen in einen Erkennungsalgorithmus einbringen. Solche Algorithmen, die diese Zusammenhänge verarbeiten, benötigen große semantische Netzwerke, die die Beziehung von Objekten zueinander sowie die Wahrscheinlichkeit des Vorkommens von Objekten im Umfeld von anderen Objekten abbilden. Auch hier müsste natürlich auch darauf geachtet werden das die Vergleichsoperationen nicht die nahezu echtzeitfähige Ausführung behindern.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
In der Diplomarbeit soll die Verwendung und Möglichkeit zur Einbindung eines Eyetrackers in der Bildersuche untersucht werden. Eyetracker sind Geräte zur Blickerfassung. Sie werden häufig in Design- und Usabilitystudien verwendet, um Informationen über den Umgang der Benutzer mit dem Produkt zu untersuchen. Seit einiger Zeit werden Augenbewegungen auch zur Erkennung von benutzerrelevanten Informationen und Bereichen verwendet, wie zum Beispiel bei dem Projekt Text 2.05 [4]. Hierbei werden Blickrichtung und -fixierung benutzt, um eine Interaktion mit dem Leser eines Textes auf eine möglichst einfache, dabei aber subtile Weise zu ermöglichen.
Im Rahmen dieser Arbeit wurde die Effizienz von Anfragen an OWL-Ontologien und Anfragen an TGraphen evaluiert. Dabei wurden die zwei unterschiedlichen Transformationsverfahren Schema-Aware Mapping und Simple Mapping getestet. Bei der Transformation einer OWL-Ontologie in einen TGraphen über Schema-Aware Mapping werden ein TGraph-Schema und ein TGraph erzeugt. Im Gegensatz zu Schema-rnAware Mapping besitzt Simple Mapping ein schon vordefiniertes TGraph-Schema, das für alle OWLOntologien anwendbar ist. Damit wird bei der Transformation einer OWL-Ontologie in einen TGraphen über Simple Mapping nur ein TGraph - kein TGraph-Schema - generiert. Mit den Verfahren wurden entsprechend auch SPARQL-Anfragen in GReQL-Anfragen transformiert.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
In dieser Arbeit wird der Nutzen von GPGPU (Allzweckberechnungen auf Grafikprozessoren) zur robusten Deskription von natürlichen, markanten Bildmerkmalen mit Hilfe der Grafikprozessoren mobiler Geräte bewertet. Dazu wurde der SURF-Deskriptor [4] mit OpenGL ES 2.0/GLSL ES 1.0 implementiert und dessen Performanz auf verschiedenen mobilen Geräten ausgiebig evaluiert. Diese Implementation ist um ein Vielfaches schneller als eine vergleichbare CPU-Variante auf dem gleichen Gerät. Die Ergebnisse belegen die Tauglichkeit moderner, mobiler Grafikbeschleuniger für GPGPU-Aufgaben, besonders für die Erkennungsphase von NFT-Systemen (Tracking mit natürlichen, markanten Bildmerkmalen), die in Augmented-Reality-Anwendungen genutzt werden. Die nötigen Anpassungen am Algorithmus des SURF-Deskriptors, um diesen effizient auf mobilen GPUs nutzen zu können, werden dargelegt. Weiterhin wird ein Ausblick auf ein GPGPU-gestütztes Tracking-Verfahren gegeben.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.
Particle Swarm Optimization ist ein Optimierungsverfahren, das auf der Simulation von Schwärmen basiert.
In dieser Arbeit wird ein modifizierter Algorithmus, der durch Khan et al. 2010 eingeführt wurde, zur Schätzung der lokalen Kamerapose in 6DOF verwendet. Die Poseschätzung basiert auf kontinuierlichen Farb-und Tiefendaten, die durch einen RGB-D Sensor zur Verfügung gestellt werden. Daten werden von unterschiedlichen Posen aufgenommen und als gemeinsames Model registriert. Die Genauigkeit und Berechnungsdauer der Implementierung wird mit aktuellen Algorithmen verglichen und in unterschiedlichen Konfigurationen evaluiert.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Gartner prognostiziert, dass bereits im Jahr 2013 33 Prozent der Zugriffe auf Business Intelligence (BI) Funktionalitäten über mobile Endgeräte erfolgen. Neben der großen Verbreitung mobiler Endgeräte im privaten Umfeld etablieren sich diese Geräte auch zunehmend in Unternehmen und es werden vermehrt sinnvolle Einsatzszenarien für entsprechende Anwendungen entwickelt. Auch im Themenbereich BI ist die Entwicklung mobiler Applikationen aktuell in vollem Gange. Das Forschungsthema Mobile Business Intelligence (mBI) behandelt die Erweiterung der Konzepte traditioneller BI in den Bereich der Mobilität, was die Nutzung von BI Funktionalitäten auf mobilen Endgeräten wie Smartphones und Tablet Computer möglich macht. Die Aktualität sowie die Potenziale, die dem Thema mBI zugesprochen werden, wie zum Beispiel eine Erhöhung der Effektivität und Effizienz der Geschäftsprozesse sowie eine Steigerung der Mitarbeiterproduktivität, sind Anlass für die Behandlung von mBI in dieser Master Thesis. Der Hauptaspekt der vorliegenden Arbeit ist die Entwicklung einer mBI Strategie, welche der Ausgestaltung der wichtigen Punkte für mBI sowie der Ausgestaltung der Tätigkeiten aller mit dem Thema Mobilität betrauten Akteure an einheitlichen Zielen dient. Wichtige Punkte einer mBI Strategie sind die Identifikation von Chancen und Risiken sowie die Definition von Zielen, die Adaption von mBI an den Anwenderkontext, die Integration von mBI in die bestehende IT Infrastruktur und Anwendungslandschaft, die Architekturen für mBI Systeme sowie die Sicherheit von mBI Systemen. Neben dem ausführlich behandelten Thema der mBI Strategie wird außerdem ein Überblick über den Markt für mBI verschafft. Können die Aspekte der mBI Strategie sowie weitere für das Thema wichtige Punkte mittels eines strukturierten Vorgehens auf ein einheitliches Ziel ausgerichtet werden, bildet dies beste Voraussetzungen für die erfolgreiche Realisierung von mBI in Unternehmen.
Die Messung des Nutzens von kollaborativen Technologien ist aufgrund der soziologischen Einflüsse auf diese Systeme eine Herausforderung. In dieser Arbeit wird die Einführung eines kollaborativen Systems in eine bestehende IT-Systemlandschaft untersucht, sodass ein Mehrwert für das Unternehmen identifiziert werden kann. Die Auswertung mit Rahmenwerken hat ergeben, dass sich der Nutzen durch eine bessere Verwaltung und Organisation von betrieblichen Ressourcen und eine Optimierung des zugrundeliegenden Prozesses bemerkbar macht.
Die neuen Medien gewinnen im gesellschaftlichen Leben immer mehr an Bedeutung. Dieser Prozess beeinflusst zunehmend auch die Entwicklungen im schulischen Bereich. Durch die Eingliederung von Computern in den Unterricht entstehen neue Möglichkeiten hinsichtlich der Gestaltung von Lernprozessen. In diesem Zusammenhang ist es von großer Bedeutung, entsprechende Computeranwendungen für die jeweilige Lerngruppe aufzubereiten, sodass ein begründeter Einsatz im Rahmen des Unterrichts erfolgen kann. Zudem erfordert die effiziente Einbindung von Computern eine Veränderung der räumlichen Organisation, der methodischen Konzeption des unterrichtlichen Agierens, sowie einen Wandel im Rollenverständnis der Lehrpersonen. Diese Reflexion und Umorientierung ist die Grundlage dafür, dass neue Medien gewinnbringend für Lehr- und Lernprozesse genutzt werden können.
Ein erstes Ziel der vorliegenden Arbeit ist es - anhand einer landesweiten Befragung - die Situation bezüglich der Verwendung von Computern im Rahmen des Geometrieunterrichts der Grundschule empirisch zu überprüfen. Die Auswertung liefert Auskunft darüber, wie intensiv der Computer im Lernprozess eingesetzt wird und bildet jene Faktoren ab, die ausschlaggebend sind, dass Computer im Geometrieunterricht verwendet werden. Die Ergebnisse sind eine empirische Grundlage für die Entwicklung einer computergestützen Lernumgebung namens "Geolizi" (zweites Ziel der Arbeit). Im Rahmen dieser Lernumgebung sollen die Schüler/innen mittels Computer die Themen "Spiegelbildliche Figuren" und "Konstruktionen von Rechteck und Quadrat" selbstständig er- bzw. bearbeiten. Dabei stehen den Kindern "hands-on" Medien, traditionelle Zeichengeräte sowie interaktive Arbeitsblätter zur Verfügung. Der Computer (samt entsprechender Anwendungen) übernimmt in diesem Lernprozess unterschiedliche Funktionen. Die Erprobung der Lernumgebung erfolgt in mehreren Klassen der Grundstufe II im Rahmen einer formativen und summativen Evaluierung.
Anhand der Schüler/innenfragebögen wird die Benutzerfreundlichkeit der einzelnen Elemente untersucht. Auf der Grundlage eines Prä-Post-Untersuchungsdesigns wird versucht, mögliche Veränderungen der Einstellungen im Bezug auf den Einsatz von Computern im Geometrieunterricht bei den beteiligten Lehrerinnen / Lehrern herauszufinden.
Die Ergebnisse der Erprobungsphasen sowie die Auswertung der Fragebögen lassen die begründete Vermutung zu, dass durch die Verwendung der multimedialen Lernumgebung "Geolizi" eine Steigerung der Nutzungsintensität von Computern im Geometrieunterricht die Folge sein könnte. Insgesamt stellt die entwickelte Lernumgebung eine interessante Möglichkeit dar, Computer im Rahmen des Geometrieunterrichts der Grundschule einzusetzen und so einen wichtigen Beitrag zu einem selbstständigen, individualisierten Lernprozess zu leisten.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Das Ziel dieser Masterarbeit ist, dass der Roboter Lisa komplexe Befehle verarbeiten und Information aus einem Kommando extrahieren kann, die benötigt werden, um eine komplexe Aufgabe als eine Sequenz von kleineren Aufgaben auszuführen. Um dieses Ziel zu erreichen wird das Bild, das Lisa von ihrer Umgebung hat, mit semantischen Informationen angereichert. Diese Informationen werden in ihre Karte eingefügt werden. Es wird angenommen, dass der komplexe Befehl bereits geparst worden ist. Deshalb ist die Verarbeitung des Inputs, um daraus einen geparsten Befehl zu erstellen, kein Teil dieser Masterarbeit. Die Karten, die Lisa aufbaut, werden mit semantischen Anmerkungen annotiert. Zu diesen Anmerkungen gehört jede Art von Informationen, die nützlich zur Ausführung allgemeiner Aufgaben sein könnte. Das kann zumBeispiel eine hierarchische Klassifizierungen von Orten, Objekten und Flächen sein. Die Abarbeitung des Befehls mit den zugehörigen Informationen über die Umgebung wird eine Sequenz von Aufgaben auslösen. Diese Aufgaben sind die bereits implementierten Fähigkeiten von Lisa, wie zum Beispiel Objekterkennung oder Navigation. Das Ziel dieser Masterarbeit ist aber nicht nur, die vorhandenen Aufgaben zu nutzen, sondern auch das Hinzufügen von neuen Aufgaben zu erleichtern.
Diese Masterarbeit beschreibt und evaluiert die im Rahmen der Arbeit entwickelten Erweiterungen zur Schellings Segregationsimulation. Der Nobelpreisträger Thomas C. Schelling simulierte als erster ab 1969 die Segregation. Die dabei entstandenen Ergebnisse erlaubten eine genauere Analyse der auftretenden Phänomene. Uri Wilensky, Mitarbeiter der "Northwestern University", entwickelte seit 1999 eine Segregationssimulation in NetLogo.
Im Rahmen meiner Masterarbeit habe ich das NetLogo-Model von Uri Wilensky in sechs unterschiedlichen Szenarien weiterentwickelt.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
Diese Masterarbeit hat das Ziel, die Frage zu klären, wie man Stakeholder an einem Projekt beteiligen kann. Es werden Methoden diskutiert, wie man die relevanten Stakeholder aus der Fülle der Anspruchsgruppen auswählt und wie man diese Stakeholder in den Beteiligungsprozess einbindet. Der Beteiligungsprozess sieht neben klassischen Beteiligungsmethoden wie Workshops vor allem moderne Web 2.0 Methoden vor.
Satzung der örtlichen Studentenschaft an der Universität Koblenz-Landau, Campus Koblenz.
Ordnung zur Änderung der Promotionsordnung des Fachbereiches 8: Psychologie der Universität Koblenz-Landau
Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang
(Erweiterungsprüfung) an der Universität Koblenz-Landau
Diese Arbeit thematisiert die theoretische Grundlegung, Entwicklung und Validierung eines Instrumentariums, das Lehramtsstudierenden zum Abschluss der Bachelorphase einen Einblick in die eigene Kompetenzentwicklung ermöglicht sowie erste "Praxiserfahrungen" aufarbeiten hilft. Hierdurch wird die Ausbildung der Reflexionsfähigkeit der Studierenden unterstützt. Diese beiden Aspekte und zwei darauf ausgerichteten Instrumente sind die Grundlage für ein Online-Self-Assessment (Tour 3-RLP), das in Anlehnung an das Carreer-Counselling for Teachers (CCT, vgl. cct-germany.de) konzipiert und auf die Kompetenzerfassung ausgerichtet ist. Die Instrumente dienen der Förderung der Professionalisierung der Studierenden und entsprechen dem Anliegen der Reform der Lehrerausbildung in Rheinland-Pfalz. Dieses Reformkonzept, die KMK-Standards für die Lehrerbildung (Bildungswissenschaften), der rheinland-pfälzische "Orientierungsrahmen Schulqualität" sowie die Handreichungen und Manuale zur Durchführung der Vertiefenden Praktika in der Lehrerausbildung bilden die rationale Basis zur Itemgenerierung und Konstruktion der Instrumente.
Der erste Teil dieser Schrift widmet sich den theoretischen Grundlagen zur Erstellung des Instrumentariums für die "CCT-Tour 3-RLP" mit dem Hintergrund der Professionalisierung im Lehrberuf. Ihre historischen Dimensionen und die damit verbundenen Ansätze der Lehrerbildungsforschung stellen ein umfassendes Wissensgebiet dar, das von der "Lehrerpersönlichkeit" bis hin zur Implementation von Standards für die Lehrerausbildung sowie der Outputorientierung reicht. War es in den 60er und 70er Jahren noch der Persönlichkeitsansatz, der in der Lehrerbildungsforschung eine große Rolle spielte, so sind es nun die Ansätze zur Expertiseentwicklung und Modelle der Kompetenzentwicklung, die im Fokus des wissenschaftlichen Interesses stehen.
Im Theorieteil der Dissertationsschrift werden daher sukzessive die diesem momentanen Trend vorausgehenden Paradigmen beschrieben. Im Kontext dieser Erörterungen wird auf das Konzept der Lehrerselbstwirksamkeit eingegangen, es wird ferner intensiv auf topologische und typologische Modelle der Professionalisierung Bezug genommen. Ferner werden die Praxiselemente der Lehrerausbildung und deren Beitrag zur Professionalisierung angehender Lehrkräfte beleuchtet. Professionell reflektierte Praxis, so die Annahme, bildet eine Grundlage zur Expertiseentwicklung. Gerade deshalb ist es unumgänglich, die Transferierbarkeit von Theoriewissen in Praxishandeln zu hinterfragen und die hierzu vorliegenden Erkenntnisse aufzuarbeiten. Eine verbindende Theorie zwischen der Integrationshypothese (Theoriewissen kann in Praxishandeln "übertragen" werden) und der Differenzhypothese (Lehrerkönnen stellt eine eigene, vom Theoriewissen unabhängige Art von Wissensverwendung dar) stellt die kognitive Psychologie, und hier wiederum die Expertiseforschung, bereit. Sie kann annähernd erklären, wie propositionales Wissen (Regelwissen) und die über das berufliche Handeln über kategoriale Wahrnehmung und die Ausbildung von Schemata erzeugten Wissenskomponenten zum professionellen Agieren führen (können). Endpunkt des theoretischen Diskurses ist die Bilanzierung der vorliegenden Erkenntnisse, deren Verbindung mit den Anliegen der Reform der Lehrerbildung in Rheinland-Pfalz und die Rolle, welche die Tour 3-RLP in diesem Kontext spielen kann. rnIm empirischen Teil dieser Arbeit werden die Schritte zur Validierung des Instrumentariums erörtert.
Einführend erfolgt die Darstellung der Professionsstandards der PH Zentralschweiz, die als Modell zum Aufbau eines kompetenzstufenorientierten Instrumentariums gelten können. Eine Analyse von verschiedenen Methoden zur Ermittlung von Cut-Scores mit dem Ziel, Kompetenzstufen zu entwickeln, bildet ebenfalls eine Grundlage zum Aufbau geeigneter Verfahrensweisen innerhalb des eigenen Anliegens. Aus den Ergebnissen der beiden Validierungsstudien Studie lässt sich eine nach psychometrischen Kriterien abgesicherte Skalenstruktur für das Instrument zur Erfassung des Kompetenzstands ableiten und ein Tool aufbauen, das die Erfahrungsverarbeitung der Studierenden fokussiert und der Selbstreflexion dienen soll.
Kernanliegen beider Instrumentarien ist die Förderung der Studierenden, die mit dem Online-Self-Assessment über geeignete Rückmeldestrukturen und daran gekoppelte Handlungsempfehlungen realisiert wird. Der Ausblick widmet sich der Frage, ob eine kompetenzmodellierende oder auf Standards basierende Auseinandersetzung mit dem Thema Professionalisierung die einzige Möglichkeit darstellt, sich dem Thema der Kompetenzentenwicklung anzunähern. Die Rolle der Reflexion erweist sich im integrativen wie auch im differenziellen Ansatz zum Wissenstransfer und Kompetenzaufbau als das verbindende Element zwischen beiden Positionen.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Verwaltungen, Unternehmen, Non-Profits sowie private Stakeholder sind in unterschiedlichen Formen und Rollen in E-Government Projekten beteiligt oder davon betroffen. E-Government Projekte zeichnen sich u.a. dadurch aus, dass sie eine komplexe Stakeholder-Struktur aufweisen, infolgedessen hängt der Erfolg von IKT-Projekten maßgeblich von der Einbindung einzelner Stakeholdergruppen in Gestaltungsprozesse der E-Government Lösung ab. In diesem Zusammenhang wird eine größere Stakholderbeteiligung angestrebt, hilfreiche Initiativen wie Open Government und Good Governance treiben diesen Prozess voran. Die Ermittlung der Stakeholdergruppen durch eine sog. Stakeholder-Analyse ist methodisch unzureichend entwickelt, dabei ist es wichtig, die Ziele, Erwartungen und Machteigenschaften der Projektbeteiligten und Projektbetroffenen zu analysieren.
Das Ziel dieser Bachelorarbeit ist es, die verbreiteten Stakeholder-Theorien, Stakeholderbeteiligungsansätze sowie die Stakeholderanalyse aufzugreifen und auf Verwaltungsebene zu übertragen und die Anwendbarkeit zu überprüfen. Es werden geeignete Mappingverfahren für die Einordnung der Stakeholdergruppen mittels Stakeholdertheorien von Freeman, Mitchel et. al. und Rowley erläutert und systematisiert. Dabei werden mittels Literaturanalyse wichtige Stakeholderkonzepte erläutert und deren Anwendung an konkreten E-Government Projekten überprüft, um daraus Anregungen und Handlungsempfehlungen für zukünftige E-Government Projekte zu generieren. Außerdem gilt es herauszuarbeiten, wie Stakeholdergruppen in die Entwicklungsprozesse einzelner E-Government Projekte mittels Web 2.0 aktiv eingebunden werden können. Die Rolle von Web 2.0 Anwendungen als ein zusätzlicher Kommunikationskanal und Beteiligungsinstrument wird aufgezeigt und bewertet.
Es soll ein Leitfaden für erfolgreiche Projektbeteiligung von Stakeholdern entwickelt werden. Dieser soll Vorgehensmodelle zur Stakeholderidentifikation, Stakeholdergruppierung und "priorisierung sowie Handlungsanweisungen zum Web 2.0 Einsatz aufzeigen.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
Cheops für VNUML - Erstellen und beobachten einer VNUML-Simulation per MausklickrnEs wird untersucht, wie Virtual Network User Mode Linux (VNUML), eine Software zur Simulation von Rechnernetzen, die aus virtualisierten Linux Instanzen aufgebaut werden, für den Benutzer besser handhabbar gemacht werden kann. Mit dem Linux-Paket VNUML, welches die dateigesteuerte Konfiguration virtueller Betriebssysteminstanzen ermöglicht, erhält der Anwender die Möglichkeit, komplexe Netzwerktopologien zu simulieren. Verschiedene Netzwerküberwachungsprogramme werden auf ihre Fähigkeit hin untersucht, eine laufende VNUML-Simulation zu erfassen und sinnvoll abzubilden. Dabei soll der Benutzer einen schnellen Überblick über die Funktion der simulierten Netzwerkumgebung, sowie nach Möglichkeit auch über deren Topologie erhalten können. Das Programm Cheops, welches der Netzwerküberwachung dient, wird erweitert, um nicht nur eine laufende Simulation abbilden und beobachten zu können, sondern darüber hinaus in der Lage zu sein, in jedem Schritt der Arbeit mit VNUML eingesetzt zu werden.
Das erweiterte Programm gestattet sowohl die Erstellung der VNUML-Topologiedatei, als auch das Starten und Steuern der Simulation. Damit werden der lange Kommandozeilenaufruf, sowie das Editieren der Konfigurationsdatei, durch einfach zu benutzende Funktionen in einer grafischen Oberfläche (GUI) ersetzt. Zur schnellen Kontrolle der vollen Funktionsfähigkeit der gestarteten Simulation sind keine weiteren Eingaben oder Konfigurationen nötig. Ebenso kann eine differenzierte Beobachtung verschiedener Netzwerkdienste während der Laufzeit der Simulation erfolgen. Die hierzu nötigen Werkzeuge sind im Paket Cheops für VNUML ebenfalls enthalten und speziell zur Anwendung mit VNUML-Simulationen vorkonfiguriert.
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.