Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (132)
- Bachelorarbeit (68)
- Diplomarbeit (47)
- Masterarbeit (34)
- Studienarbeit (9)
- Konferenzveröffentlichung (5)
- Dissertation (2)
- Wissenschaftlicher Artikel (1)
Schlagworte
- Simulation (5)
- ontology (5)
- Bluetooth (4)
- computer clusters (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- Customer Relationship Management (3)
- Enterprise 2.0 (3)
- Informatik (3)
- Knowledge Compilation (3)
Institut
- Fachbereich 4 (298) (entfernen)
Um Altsysteme beim sogenannten Software-Reengineering an neue Anforderungen mittels Computerunterstützung anpassen zu können, wird eine effiziente Repräsentation der vorliegenden und im Laufe des Prozesses anfallenden Daten und Informationen benötigt. Als geeignete Repräsentationsform haben sich TGraphen herausgestellt, da sowohl Knoten als auch gerichtete Kanten typisiert sind und über Attribute verfügen können. Darüber hinaus besteht eine globale Anordnung aller Elemente des Graphen sowie eine Reihenfolge der Inzidenzen jedes Knoten. In dieser Arbeit wurde die "Extractor Description Language" (EDL) entwickelt, um die Syntax der Eingabedaten zu beschreiben und mittels frei definierbarer semantischer Aktionen einen TGraphen aufzubauen. Im Gegensatz zu klassischen Parsergeneratoren wie ANTLR werden mehrdeutige Grammatiken, Modularisierung, Inselgrammatiken und Symboltabellen-Stacks von EDL unterstützt, wodurch die Erstellung der Syntaxbeschreibung vereinfacht wird. Nach der Erhebung der Anforderungen an EDL, werden zunächst die existierenden Parsergeneratoren daraufhin untersucht, welcher zur Realisierung der Anforderungen am geeignetsten ist.
Im Anschluss wird die Syntax sowie die Semantik von EDL beschrieben und unter Nutzung des geeigneten Parsergenerators implementiert. Anhand von zwei mittels EDL generierten exemplarischen Extraktoren für XML und Java wird der zeitliche Aufwand zum Verarbeiten der Eingabe gemessen.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Der Bereich der Annotation von digitalen Medien ist umfassend erforscht. Es gibt viele verschiedene innovative Ideen Annotationsprozesse zu gestalten. Den wahrscheinlich größten Anteil an verwandten Arbeiten hat die semiautomatische Annotation. Eine Eigenschaft aber ist allen Arbeiten gemein: Keine dieser Arbeiten untersucht, wie man ein Interface für einen Annotationsprozess optimieren kann, um den Nutzer zu unterstützen und folglich zufriedener zu machen. Die hier vorliegende Arbeit versucht im Rahmen einer Benutzerstudie die Usability Eigenschaften von verschiedenen Interface Varianten zu vergleichen, um anschließend Aussagen darüber machen zu können, welche Funktionen ein Annotationsinterface haben sollte und darf, um eben genau diese betreffenden Anforderungen zu erfüllen. Hierzu wurden verschiedene Ideen für Interfaces gesammelt, im Rahmen einer Diskussionsrunde mit Experten erörtert und letztendlich basierend auf den verbliebenen Ideen Variablen festgelegt, mit deren Kombination untereinander verschiedene Interfaces entstanden sind. Im Rahmen dieser Nutzerstudie konnte die Tendenz festgestellt werden, dass eine Autocompletion Funktion und Tag-Vorschläge während der Annotation hilfreich für den Nutzer sind. Außerdem konnte festgestellt werden, dass eine farbige Kennzeichnungen von Tag-Typen nicht störend auf den Nutzer wirken, sondern sich Ansätze in Richtung hilfreich erwiesen. Ähnliche Tendenzen wurden für ein Layout mit nur 2 User Interface Elementen aus den Daten abgelesen. Des weiteren konnte mit Hilfe der Evaluation ein weiteres Beispiel dafür gefunden werden, dass es zum Teil erhebliche Unterschiede zwischen den Nutzern gibt, was intuitiv ist und was nicht. Für die Gestaltung von zukünftigen Annotationsinterfaces bedeuten die Erkenntnisse, dass weitere Nutzerstudien im Bereich der Annotationsinterfaces durchgeführt und bei der Gestaltung der Interfaces von klassischen Merkmalen, im Sinne der Nutzerzufriedenheit, abgewichen werden darf.
Die Bedeutung von Social Software (SSW) nimmt nicht nur im Privatleben vieler Menschen zu. Auch Unternehmen haben mittlerweile die Potentiale dieser Systeme erkannt und setzen vermehrt auf Web 2.0 Technologien basierende Systeme im Unternehmenskontext ein. So brachte eine Studie der Association for Information and Image Management (AIIM) im Jahr 2009 hervor, dass über 50 % der Befragten Enterprise 2.0 (E2.0), d.h. der Einsatz von SSW im Unternehmen, als kritischen Faktor des Unternehmenserfolges ansahen. Auch durch diesen Trend mit verursacht stieg, laut einer Studie des Beratungsunternehmens IDC, die Menge an digital verfügbaren Informationen innerhalb einer Zeitspanne von fünf Jahren (2006-2011) um den Faktor zehn. Wo früher galt, "Je mehr Information, desto besser.", bereitet heute das Managen dieser schieren Flut an Informationen vielen Unternehmen Probleme (bspw. in Bezug auf die Auffindbarkeit von Informationen). SSW bietet mit neuen Funktionen, wie Social Bookmarking, Wikis oder Tags, das Potential, Informationen durch Nutzerbeteiligung besser zu strukturieren und zu organisieren. In der vorliegenden Arbeit wird am Beispiel der Forschungsgruppe für Betriebliche Anwendungssysteme (FG BAS) gezeigt, wie man vorhandene Informationsstrukturen erfassen, analysieren und darauf basierend Empfehlungen für den Einsatz von SSW herleiten kann. Den Rahmen für dieses Vorgehen bildet ein von Henczel (2000) entwickeltes Modell zur Durchführung eines Information Audits. Hervorzuhebende Ergebnisse der Arbeit stellen zum Einen das Erfassungsmodell für Informationen und Prozesse dar (Informationsmatrix) und zum Anderen das Visualisierungsmodell der erfassten Daten.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
The paper deals with a specific introduction into probability propagation nets. Starting from dependency nets (which in a way can be considered the maximum information which follows from the directed graph structure of Bayesian networks), the probability propagation nets are constructed by joining a dependency net and (a slightly adapted version of) its dual net. Probability propagation nets are the Petri net version of Bayesian networks. In contrast to Bayesian networks, Petri nets are transparent and easy to operate. The high degree of transparency is due to the fact that every state in a process is visible as a marking of the Petri net. The convenient operability consists in the fact that there is no algorithm apart from the firing rule of Petri net transitions. Besides the structural importance of the Petri net duality there is a semantic matter; common sense in the form of probabilities and evidencebased likelihoods are dual to each other.
Standards haben längst Einzug in das Gebiet der Informatik gehalten. Verschiedenste Organisationen beschäftigen sich mit der Beschließung von Normen für die standardisierte Lösung von Problemen in der Informatik. Ein wichtiger Teilaspekt ist die Spezifizierung von Datenformaten, die die Interoperabilität von Programmen sichern kann. Dabei existieren viele verschiedene Schemasprachen, die auf unterschiedliche Anforderungen ausgelegt sind, und mit deren Hilfe die Menge der konformen Dokumente beschrieben werden kann. Die Kombination mehrerer Schemasprachen ist sinnvoll, da die Mächtigkeit einer Sprache oftmals nicht ausreicht, um die Anforderungen zu erfassen. So auch im Fall der, von IMS entwickelten, Spezifikation Common-Cartridge. Das Common-Cartridge-Format beschreibt valide Zip-Pakete, die dazu genutzt werden können, verschiedene Lernobjekte zu aggregieren und als zusammenhängende Lerneinheit in eine Lernplattform zu importieren. Die Spezifikation benutzt bereits vorhandene und bewährte Spezifikationen, um Teile gültiger XML-Dokumente zu beschreiben. Diese sind selbst Teil eines Pakets und können Referenzen enthalten, die den Inhalt mit der Paketstruktur in Verbindung bringen. Dabei wird das Common-Cartridge-Format durch ein sogenanntes Domain-Profile erfasst. Ein solches erlaubt die Anpassung einer oder mehrerer Standards bzw. Spezifikationen, um die Bedürfnisse einer bestimmten Domäne abzudecken. Zudem können sogenannte Testregeln definiert werden, die für die Bestimmung der für ein Datenpaket auszuführenden Testaufgaben genutzt werden können. Letztlich kann die automatische Erstellung eines Testsystems veranlasst werden, welches diese Aufgaben ausführen kann. Somit stellt sich die Frage, ob ein Domain-Profile ebenso dazu eignet ist, die Anforderungen anderer paket-basierter Datenformate zu erfassen, und ob die nötigen Änderungen an den unterstützenden Tools vorgenommen werden können. Schließlich würde dies die Überprüfung gestellter Anforderungen ermöglichen.
Diese Arbeit soll sich mit einer beispielhaften Anwendung des Verfahrens befassen, um diese Fragen nach Möglichkeit zu beantworten. Dazu soll der verwendete Ansatz auf die Datenformate übertragen werden, die Teil der Spezifikation des Virtual Company Dossiers - VCD - sind. Diese legen ebenso paket-basierte Formate fest, die innerhalb eines elektronischen Ausschreibungsprozesses verwendet werden. Sie ermöglichen die Erfassung von Evidenzen, die die notwendige Qualifikation eines Bewerbers, sowie die Erfüllung der, mit dem Ausschreibungsverfahren verbundenen Kriterien nachweisen.
Im praktischen Teil werden somit zuerst die Ähnlichkeiten der beiden Formate herausgearbeitet. Diese dienten der Identifizierung abstrakter Anforderungen, die, soweit möglich, mit den gleichen Formalismen festgehalten wurden. Dabei wurden Änderungen an den unterstützenden Tools vorgenommen, um die Erfassung aller VCD-spezifischen Anforderungen zu ermöglichen. So wurden das Format, und das Tool zur Erstellung von Applikationsprofilen, angepasst. Schließlich erfolgten Änderungen am generischen Testsystem, welches zur Herleitung konkreter Testsysteme genutzt wird. Letztlich stellte sich heraus, dass ähnliche Anforderungen bestehen, und die unterstützenden Tools in einer Weise angepasst werden konnten, die die Menge der erfassbaren Anforderungen erweitert. Da der Hintergrund der beteiligten Spezifikationen sich zudem signifikant unterscheidet, ist davon auszugehen, dass das Verfahren in einem weiten Spektrum von Anwendungsfällen eingesetzt werden kann.
Mit der Reakkreditierung der Studiengänge im Fachbereich Informatik der Universität Koblenz-Landau werden zukunftsweisend neue Studiengänge angeboten. Für die weitere Planung und Gestaltung der einzelnen Studiengänge ist die Meinung der Studierenden ein wesentlicher Indikator. Informationen zu den neuen Studiengängen während des Prozesses der Akkreditierung sind jedoch für Studierende nicht vorhanden. Studierende haben ein Interesse an den neuen Studiengängen und der neuen Prüfungsordnung und darüber hinaus wäre eine aktive Beteiligung im Entscheidungsprozess wünschenswert. Das Konzept der E-Partizipation ist eine Möglichkeit dieses Bedürfnis zu befriedigen. Es bietet die Gelegenheit über das Thema der Akkreditierung zu diskutieren und eigene Ideen und Meinungen in den Entscheidungsprozess einzubringen. Die Bachelorarbeit beschreibt ein E-Partizipationsprojekt an der Universität Koblenz-Landau über die Akkreditierung die Studiengänge des Fachbereichs Informatik. Unter Nutzung des Referenz-Frameworks von Scherer und Wimmer (2011) wird dieses Projekt durchgeführt. Weiterhin wird der Akkreditierungsprozess modelliert, um ein besseres Verständnis über den ganzen Prozess zu erhalten und Möglichkeiten zu identifizieren das E-Partizipationsprojekt zu integrieren. Die Ergebnisse des Projekts werden mit einer Online-Umfrage über die E-Partizipationsplattform erhoben. Mit den Ergebnissen der Umfrage und den Erfahrungen, die bei der Durchführung des Projekts gesammelt wurden, werden Empfehlungen für weitere E-Partizipationsprojekte formuliert. Zusätzlich wird das Referenz-Framework von Scherer und Wimmer (2011) kritisch betrachtet.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Parallelmanipulatoren, welche den Stewartmechanismus nutzen, ermöglichen die präzise Ausführung von Aufgaben in einem begrenzten Arbeitsraum. Durch die Nutzung von sechs Freiheitsgraden wird eine hohe Flexibilität der Positionierung erreicht. Die robuste Konstruktion sorgt zudem für ein sehr gutes Verhältnis von Gewicht zu Nutzlast.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer flexiblen Softwarelösung zur Ansteuerung einer Stewartplattform. Dies umfasst ein Modell der Plattform, welches zu Testzwecken dient. Es werden zunächst die mathematischen Grundlagen der Inversen Kinematik erarbeitet aufbauend auf einem zuvor definierten Bewegungsmodell. Es folgt die Entwicklung einer generischen Architektur zur Übermittlung und Auswertung von Steuerkommandos vom PC. Die Implementierung geschieht in C und wird in verschiedene Module aufgeteilt, welche jeweils einen Aufgabenbereich der Positionskontrolle oder der Hardwarekommunikation abdecken. Es wird zudem eine graphische Nutzeroberfläche vorgestellt, über die man die Position der Plattform manuell verändern kann. Eine automatische Ansteuerung wird im folgenden Anwendungsbeispiel beschrieben, wo die Plattform mit frequentiellen Beschleunigungswerten einer Achterbahnsimulation beliefert wird.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
Virtual Goods + ODRL 2012
(2012)
This is the 10th international workshop for technical, economic, and legal aspects of business models for virtual goods incorporating the 8th ODRL community group meeting. This year we did not call for completed research results, but we invited PhD students to present and discuss their ongoing research work. In the traditional international group of virtual goods and ODRL researchers we discussed PhD research from Belgium, Brazil, and Germany. The topics focused on research questions about rights management in the Internet and e-business stimulation. In the center of rights management stands the conception of a formal policy expression that can be used for human readable policy transparency, as well as for machine readable support of policy conformant systems behavior up to automatic policy enforcement. ODRL has proven to be an ideal basis for policy expressions, not only for digital copy rights, but also for the more general "Policy Awareness in the World of Virtual Goods". In this sense, policies support the communication of virtual goods, and they are a virtualization of rules-governed behavior themselves.
Aspekt-Orientierung in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Schema information about resources in the Linked Open Data (LOD) cloud can be provided in a twofold way: it can be explicitly defined by attaching RDF types to the resources. Or it is provided implicitly via the definition of the resources´ properties.
In this paper, we analyze the correlation between the two sources of schema information. To this end, we have extracted schema information regarding the types and properties defined in two datasets of different size. One dataset is a LOD crawl from TimBL- FOAF profile (11 Mio. triple) and the second is an extract from the Billion Triples Challenge 2011 dataset (500 Mio. triple). We have conducted an in depth analysis and have computed various entropy measures as well as the mutual information encoded in this two manifestations of schema information.
Our analysis provides insights into the information encoded in the different schema characteristics. It shows that a schema based on either types or properties alone will capture only about 75% of the information contained in the data. From these observations, we derive conclusions about the design of future schemas for LOD.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Im Rahmen dieser Masterarbeit wird der Spanning Tree Simulator um diverse Funktionalitäten erweitert. Dieser wurde in der Bachelorarbeit [Jan10b] von Andreas Sebastian Janke im Jahr 2010 entwickelt. Mithilfe eines Conguration-Files kann ein beliebiges Netzwerk ins Programm geladen und grafisch dargestellt werden. Solch ein Configuration-File muss in XML geschrieben werden und repräsentiert ein Netzwerk bestehend aus Switches und Hosts. Anschließend kann auf diesem Netzwerk der Spanning Tree Algorithmus IEEE 802.1D laufen gelassen werden. Anders als in der Bachelorarbeit sind jetzt nur noch die Switches als Threads realisiert, um weniger Systemressourcen zu benötigen. Nach Abschluss des Algorithmus entsteht ein Spannbaum, der die Schleifen im vorliegenden Netzwerk aufbricht. Dies ist notwendig, da diese beim Verschicken von Nachrichten zu einer stetig steigenden Auslastung des Netzes führen können.
Die Magnetresonanztomographie (MRT) ist ein bildgebendes Verfahren, das in der medizinischen Diagnostik zur Darstellung von Struktur und Funktion der Gewebe und Organe im Körper eingesetzt wird. Diffusionsgewichtete Bildgebung ist ein spezielles bildgebendes MRT Verfahren, welches es ermöglicht, nichtinvasiv und in vivo Einblicke in den Verlauf von Nervenbahnen zu geben. Es erlaubt damit, Aussagen über die Struktur und Integrität dieser Verbindungsbahnen zu treffen. Im klinischen Alltag findet diese Modalität Anwendung in der neurochirurgischen Operationsplanung, wie beispielsweise bei Resektionen von Läsionen, die in wichtigen funktionellen oder tiefiegenden Arealen liegen, wo die Beschädigungsgefahr wichtiger Nervenbahnen gegeben ist. Kommt es im Zuge der Operation zu einer etwaigen Durchtrennung von wichtigen Bahnen, kann dies zu erheblichen funktionellen Beeinträchtigung führen. Diese Arbeit gibt eine Einführung in die MRT-Bildgebung und wird sich im Speziellen mit der Aufnahme von diffusionsgewichtetenMRT- Daten beschäftigen. Generell besteht das Problem, dass das Auflösungsvermögen von Diffusionsdaten relativ niedrig ist in Relation zum Aufnahmeobjekt. So werden in einem einzelnen 3D Volumenelement, auch Voxel genannt, eine Reihe von Nerventrakten abgebildet, die sich beispielsweise kreuzen, aufsplitten oder auffächern. Hier besteht die Notwendigkeit, diese Voxel zu identifizieren und zu klassifizieren, um auch in schwierigen Regionen aus den lokalen Diffusionsdaten die Verläufe von Nervenbündeln möglichst exakt zu rekonstruieren. Diese Rekonstruktion wird durch die sogenannte Traktographie realisiert. Im Zuge dieser Arbeit werden wir existierende Rekonstruktionsmethoden, wie beispielsweise diffusion tensor imaging (DTI) und q-ball imaging (QBI) auf synthetisch generierten Daten untersuchen. Wir werden herausstellen, welche wertvollen Informationen die rekonstruierten Daten liefern können und welche individuellen Einschränkungen es gibt. QBI rekonstruiert eine orientation distribution function (ODF), deren lokalen Maxima in vielen Fällen mit den Richtungen der Nervenbahnen übereinstimmen. Wir bestimmen diese lokalen Maxima. Auf den Metriken des Diffusionstensors wird eine neue voxelbasierte Klassifikation vorgestellt. Die Vereinigung von voxelbasierter Klassifikation, lokalen Maxima und globalen Informationen aus der Nachbarschaft eines Voxels ist der Hauptbeitrag dieser Arbeit und führt zur Entwicklung eines globalen Klassifikators, der mögliche Traktographie-Richtungen vorgibt und asymmetrische Konfigurationen ermittelt. Im Anschluss wird ein eigener Traktographie-Algorithmus vorgestellt, der auf den Ergebnissen des globalen Klassifikators arbeitet und somit auch Aufsplittungen von Nervenbahnen abbilden kann.
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
The objective of this contribution is to conceptually analyze the potentials of entrepreneurial design thinking as being a rather new method for entrepreneurship education. Based on a literature review of different design thinking concepts we carve out a generic design thinking model upon we conceptually build a new model that considers entrepreneurial thinking as a valuable characteristic.
The results of our work show that the characteristics of entrepreneurial design thinking can enhance entrepreneurship education by supporting respective action fields of entrepreneurial learning. In addition we reveal that entrepreneurial design thinking offers beneficial guidelines for the design of entrepreneurship education programs.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
In dieser Bachelorarbeit wurde ein Tangible Augmented Reality Spiel für Android entwickelt, das einen Mehrwert gegenüber herkömmlichen Computer oder Augmented Reality Spielen haben soll. Der Hauptteil der Arbeit erklärt das Spielkonzept, Entwicklung und die Evaluation des Spiels. Bei der Evaluation wurde das Flow-Erleben, als Maß für den Spielspaß, druch Nutzertest ausgewertet und das erstellte Spiel mit anderen Smartphone-Spielen verglichen. Außerdem werden Augmented Reality, Tangible User Interface und Tangible Augmented Reality vorgstellt und deren Vor- und Nachteile erläutert. Die Geschichte von Augmented Reality wird auch vorgestellt.
In dieser Diplomarbeit wurde ein System entwickelt, dass eine Navigation für Fußgänger ermöglicht. Wie beabsichtigt wurde das System für die Benutzung auf einem iPhone realisiert.
Obwohl die Karten der neuen Generation vonNAVTEQ sich noch in Entwicklung befinden, konnten erste Eindrücke gesammelt werden, wie die Navigation der Fußgänger in Zukunft aussehen wird. Das System arbeitet aber auch mit Kartendaten von OpenStreetMap, die die klassische Repräsentation der Kartendaten haben. Die Positionierung kann später, wenn der Galileo-Empfänger zur Verfügung steht, umgestellt werden und Positionsdaten mit höherer Präzision für die Navigation bereitstellen. Die Routenberechnung konnte mit einem CH-ähnlichen Verfahren durch Vorberechnung beschleunigt werden und erlaubt trotzdem eine Änderung des Profils, ohne dass eine neue Vorberechnung nötig ist. Anders als beim einfachen CH, wo nach einer Änderung des Profils für die Berechnung der Routenkosten eine neue Vorberechnung nötig ist, die im Vergleich zu der Berechnung einer Route aufwendig ist. In Abbildung 8.1 ist die demonstrative Navigation mit dem fertigen System abgebildet. Diese zeigt eine Berechnung der Routen für 3 unterschiedliche Profile, die unterschiedliche Steigungsgrade bevorzugen. Daraus ergeben sich unterschiedliche Routen.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
In der Diplomarbeit soll die Verwendung und Möglichkeit zur Einbindung eines Eyetrackers in der Bildersuche untersucht werden. Eyetracker sind Geräte zur Blickerfassung. Sie werden häufig in Design- und Usabilitystudien verwendet, um Informationen über den Umgang der Benutzer mit dem Produkt zu untersuchen. Seit einiger Zeit werden Augenbewegungen auch zur Erkennung von benutzerrelevanten Informationen und Bereichen verwendet, wie zum Beispiel bei dem Projekt Text 2.05 [4]. Hierbei werden Blickrichtung und -fixierung benutzt, um eine Interaktion mit dem Leser eines Textes auf eine möglichst einfache, dabei aber subtile Weise zu ermöglichen.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
In dieser Arbeit wird der Nutzen von GPGPU (Allzweckberechnungen auf Grafikprozessoren) zur robusten Deskription von natürlichen, markanten Bildmerkmalen mit Hilfe der Grafikprozessoren mobiler Geräte bewertet. Dazu wurde der SURF-Deskriptor [4] mit OpenGL ES 2.0/GLSL ES 1.0 implementiert und dessen Performanz auf verschiedenen mobilen Geräten ausgiebig evaluiert. Diese Implementation ist um ein Vielfaches schneller als eine vergleichbare CPU-Variante auf dem gleichen Gerät. Die Ergebnisse belegen die Tauglichkeit moderner, mobiler Grafikbeschleuniger für GPGPU-Aufgaben, besonders für die Erkennungsphase von NFT-Systemen (Tracking mit natürlichen, markanten Bildmerkmalen), die in Augmented-Reality-Anwendungen genutzt werden. Die nötigen Anpassungen am Algorithmus des SURF-Deskriptors, um diesen effizient auf mobilen GPUs nutzen zu können, werden dargelegt. Weiterhin wird ein Ausblick auf ein GPGPU-gestütztes Tracking-Verfahren gegeben.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.
Particle Swarm Optimization ist ein Optimierungsverfahren, das auf der Simulation von Schwärmen basiert.
In dieser Arbeit wird ein modifizierter Algorithmus, der durch Khan et al. 2010 eingeführt wurde, zur Schätzung der lokalen Kamerapose in 6DOF verwendet. Die Poseschätzung basiert auf kontinuierlichen Farb-und Tiefendaten, die durch einen RGB-D Sensor zur Verfügung gestellt werden. Daten werden von unterschiedlichen Posen aufgenommen und als gemeinsames Model registriert. Die Genauigkeit und Berechnungsdauer der Implementierung wird mit aktuellen Algorithmen verglichen und in unterschiedlichen Konfigurationen evaluiert.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Gartner prognostiziert, dass bereits im Jahr 2013 33 Prozent der Zugriffe auf Business Intelligence (BI) Funktionalitäten über mobile Endgeräte erfolgen. Neben der großen Verbreitung mobiler Endgeräte im privaten Umfeld etablieren sich diese Geräte auch zunehmend in Unternehmen und es werden vermehrt sinnvolle Einsatzszenarien für entsprechende Anwendungen entwickelt. Auch im Themenbereich BI ist die Entwicklung mobiler Applikationen aktuell in vollem Gange. Das Forschungsthema Mobile Business Intelligence (mBI) behandelt die Erweiterung der Konzepte traditioneller BI in den Bereich der Mobilität, was die Nutzung von BI Funktionalitäten auf mobilen Endgeräten wie Smartphones und Tablet Computer möglich macht. Die Aktualität sowie die Potenziale, die dem Thema mBI zugesprochen werden, wie zum Beispiel eine Erhöhung der Effektivität und Effizienz der Geschäftsprozesse sowie eine Steigerung der Mitarbeiterproduktivität, sind Anlass für die Behandlung von mBI in dieser Master Thesis. Der Hauptaspekt der vorliegenden Arbeit ist die Entwicklung einer mBI Strategie, welche der Ausgestaltung der wichtigen Punkte für mBI sowie der Ausgestaltung der Tätigkeiten aller mit dem Thema Mobilität betrauten Akteure an einheitlichen Zielen dient. Wichtige Punkte einer mBI Strategie sind die Identifikation von Chancen und Risiken sowie die Definition von Zielen, die Adaption von mBI an den Anwenderkontext, die Integration von mBI in die bestehende IT Infrastruktur und Anwendungslandschaft, die Architekturen für mBI Systeme sowie die Sicherheit von mBI Systemen. Neben dem ausführlich behandelten Thema der mBI Strategie wird außerdem ein Überblick über den Markt für mBI verschafft. Können die Aspekte der mBI Strategie sowie weitere für das Thema wichtige Punkte mittels eines strukturierten Vorgehens auf ein einheitliches Ziel ausgerichtet werden, bildet dies beste Voraussetzungen für die erfolgreiche Realisierung von mBI in Unternehmen.
Die Messung des Nutzens von kollaborativen Technologien ist aufgrund der soziologischen Einflüsse auf diese Systeme eine Herausforderung. In dieser Arbeit wird die Einführung eines kollaborativen Systems in eine bestehende IT-Systemlandschaft untersucht, sodass ein Mehrwert für das Unternehmen identifiziert werden kann. Die Auswertung mit Rahmenwerken hat ergeben, dass sich der Nutzen durch eine bessere Verwaltung und Organisation von betrieblichen Ressourcen und eine Optimierung des zugrundeliegenden Prozesses bemerkbar macht.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Das Ziel dieser Masterarbeit ist, dass der Roboter Lisa komplexe Befehle verarbeiten und Information aus einem Kommando extrahieren kann, die benötigt werden, um eine komplexe Aufgabe als eine Sequenz von kleineren Aufgaben auszuführen. Um dieses Ziel zu erreichen wird das Bild, das Lisa von ihrer Umgebung hat, mit semantischen Informationen angereichert. Diese Informationen werden in ihre Karte eingefügt werden. Es wird angenommen, dass der komplexe Befehl bereits geparst worden ist. Deshalb ist die Verarbeitung des Inputs, um daraus einen geparsten Befehl zu erstellen, kein Teil dieser Masterarbeit. Die Karten, die Lisa aufbaut, werden mit semantischen Anmerkungen annotiert. Zu diesen Anmerkungen gehört jede Art von Informationen, die nützlich zur Ausführung allgemeiner Aufgaben sein könnte. Das kann zumBeispiel eine hierarchische Klassifizierungen von Orten, Objekten und Flächen sein. Die Abarbeitung des Befehls mit den zugehörigen Informationen über die Umgebung wird eine Sequenz von Aufgaben auslösen. Diese Aufgaben sind die bereits implementierten Fähigkeiten von Lisa, wie zum Beispiel Objekterkennung oder Navigation. Das Ziel dieser Masterarbeit ist aber nicht nur, die vorhandenen Aufgaben zu nutzen, sondern auch das Hinzufügen von neuen Aufgaben zu erleichtern.
Diese Masterarbeit beschreibt und evaluiert die im Rahmen der Arbeit entwickelten Erweiterungen zur Schellings Segregationsimulation. Der Nobelpreisträger Thomas C. Schelling simulierte als erster ab 1969 die Segregation. Die dabei entstandenen Ergebnisse erlaubten eine genauere Analyse der auftretenden Phänomene. Uri Wilensky, Mitarbeiter der "Northwestern University", entwickelte seit 1999 eine Segregationssimulation in NetLogo.
Im Rahmen meiner Masterarbeit habe ich das NetLogo-Model von Uri Wilensky in sechs unterschiedlichen Szenarien weiterentwickelt.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
Diese Masterarbeit hat das Ziel, die Frage zu klären, wie man Stakeholder an einem Projekt beteiligen kann. Es werden Methoden diskutiert, wie man die relevanten Stakeholder aus der Fülle der Anspruchsgruppen auswählt und wie man diese Stakeholder in den Beteiligungsprozess einbindet. Der Beteiligungsprozess sieht neben klassischen Beteiligungsmethoden wie Workshops vor allem moderne Web 2.0 Methoden vor.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Verwaltungen, Unternehmen, Non-Profits sowie private Stakeholder sind in unterschiedlichen Formen und Rollen in E-Government Projekten beteiligt oder davon betroffen. E-Government Projekte zeichnen sich u.a. dadurch aus, dass sie eine komplexe Stakeholder-Struktur aufweisen, infolgedessen hängt der Erfolg von IKT-Projekten maßgeblich von der Einbindung einzelner Stakeholdergruppen in Gestaltungsprozesse der E-Government Lösung ab. In diesem Zusammenhang wird eine größere Stakholderbeteiligung angestrebt, hilfreiche Initiativen wie Open Government und Good Governance treiben diesen Prozess voran. Die Ermittlung der Stakeholdergruppen durch eine sog. Stakeholder-Analyse ist methodisch unzureichend entwickelt, dabei ist es wichtig, die Ziele, Erwartungen und Machteigenschaften der Projektbeteiligten und Projektbetroffenen zu analysieren.
Das Ziel dieser Bachelorarbeit ist es, die verbreiteten Stakeholder-Theorien, Stakeholderbeteiligungsansätze sowie die Stakeholderanalyse aufzugreifen und auf Verwaltungsebene zu übertragen und die Anwendbarkeit zu überprüfen. Es werden geeignete Mappingverfahren für die Einordnung der Stakeholdergruppen mittels Stakeholdertheorien von Freeman, Mitchel et. al. und Rowley erläutert und systematisiert. Dabei werden mittels Literaturanalyse wichtige Stakeholderkonzepte erläutert und deren Anwendung an konkreten E-Government Projekten überprüft, um daraus Anregungen und Handlungsempfehlungen für zukünftige E-Government Projekte zu generieren. Außerdem gilt es herauszuarbeiten, wie Stakeholdergruppen in die Entwicklungsprozesse einzelner E-Government Projekte mittels Web 2.0 aktiv eingebunden werden können. Die Rolle von Web 2.0 Anwendungen als ein zusätzlicher Kommunikationskanal und Beteiligungsinstrument wird aufgezeigt und bewertet.
Es soll ein Leitfaden für erfolgreiche Projektbeteiligung von Stakeholdern entwickelt werden. Dieser soll Vorgehensmodelle zur Stakeholderidentifikation, Stakeholdergruppierung und "priorisierung sowie Handlungsanweisungen zum Web 2.0 Einsatz aufzeigen.
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Software Projekte nutzen typischerweise mehrere externe Programmbibliotheken. Die Schnittstelle, die solch eine Programmbibliothek zur Verfügung stellt, wird als API (application programming interface) bezeichnet. APIs werden üblicherweise laufend weiterentwickelt, was es notwendig macht, dass die Anwendungen, welche sie verwenden, entsprechend modifiziert werden. Zudem kann es kann vorkommen, dass eine Programmbibliothek durch eine andere ersetzt werden soll, was ebenfalls zur Folge hat, dass die Anwendungen, wo die API verwendet wurde, modifiziert werden müssen. Den Vorgang eine Anwendung so zu modifizieren, dass eine andere API verwendet wird, bezeichnet man als API Migration. Manuelle API Migration ist eine mühselige und zeitintensive Aufgabe, deshalb ist automatische API Migration ein aktives Forschungsfeld. Ein verwandtes Forschungsgebiet ist API Analyse, welches Daten zur Verfügung stellt, die helfen können Werkzeuge für API Migration zu entwickeln. Die hier vorliegende Arbeit behandelt Techniken und Technologien für die Entwicklung von Werkzeugen für API Analyse und API Migration. Die Ergebnisse werden als Design Patterns präsentiert, welche auf unseren Erfahrungen mit API Analyse und API Migration innerhalb des Software Languages Teams basieren.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.
In dieser Ausarbeitung beschreibe ich die Ergebnisse meiner Untersuchungen zur Erweiterung des LogAnswer-Systemsmit nutzerspezifischen Profilinformationen. LogAnswer ist ein natürlichsprachliches open-domain Frage-Antwort-System. Das heißt: es beantwortet Fragen zu beliebigen Themen und liefert dabei konkrete (möglichst knappe und korrekte) Antworten zurück. Das System wird im Rahmen eines Gemeinschaftsprojekts der Arbeitsgruppe für künstliche Intelligenz von Professor Ulrich Furbach an der Universität Koblenz-Landau und der Arbeitsgruppe Intelligent Information and Communication Systems (IICS) von Professor Hermann Helbig an der Fernuniversität Hagen entwickelt. Die Motivation meiner Arbeit war die Idee, dass der Prozess der Antwortfindung optimiert werden kann, wenn das Themengebiet, auf das die Frage abzielt, im Vorhinein bestimmt werden kann. Dazu versuchte ich im Rahmen meiner Arbeit die Interessensgebiete von Nutzern basierend auf Profilinformationen zu bestimmen. Das Semantic Desktop System NEPOMUK wurde verwendet um diese Profilinformationen zu erhalten. NEPOMUK wird verwendet um alle Daten, Dokumente und Informationen, die ein Nutzer auf seinem Rechner hat zu strukturieren. Dazu nutzt das System ein sogenanntes Personal Information Model (PIMO) in Form einer Ontologie. Diese Ontologie enthält unter anderem eine Klasse "Topic", welche die wichtigste Grundlage für das Erstellen der in meiner Arbeit verwendeten Nutzerprofile bildete. Konkret wurde die RDF-Anfragesprache SPARQL verwendet, um eine Liste aller für den Nutzer relevanten Themen aus der Ontologie zu filtern. Die zentrale Idee meiner Arbeit war es nun diese Profilinformationen zur Optimierung des Ranking von Antwortkandidaten einzusetzen. In LogAnswer werden zu jeder gestellten Frage bis zu 200 potentiell relevante Textstellen aus der deutschen Wikipedia extrahiert. Diese Textstellen werden auf Basis von Eigenschaften (wie z.B. lexikalische Übereinstimmungen zwischen Frage und Textstelle) geordnet, da innerhalb des zur Verfügung stehenden Zeitlimits nicht alle Kandidaten bearbeitet werden können.
Mein Ansatz verfolgte das Ziel, diesen Algorithmus durch Nutzerprofile so zu erweitern, dass Antwortkandidaten, welche für den Benutzer relevante Informationen enthalten, höher in der Rangfolge eingeordnet werden. Zur Umsetzung dieser Idee musste eine Methode gefunden werden, um zu bestimmen ob ein Antwortkandidat mit dem Profil übereinstimmt. Da sich die in einer Textstelle enthaltenen Informationen in den meisten Fällen auf das übergeordnete Thema des Artikels beziehen, ohne den Namen des Artikels explizit zu erwähnen, wurde in meiner Implementierung der Artikelname betrachtet, um zu ermitteln, zu welchem Themengebiet die Textstelle Informationen liefert. Als zusätzliches Hilfsmittel wurde außerdem die DBpedia-Ontologie eingesetzt, welche die Informationen der Wikipedia strukturiert im RDF Format enthält. Mit Hilfe dieser Ontologie war es möglich, jeden Artikel in Kategorien einzuordnen, die dann mit den im Profil enthaltenen Stichworten verglichen wurden. Zur Untersuchung der Auswirkungen des Ansatzes auf das Ranking-Verfahren wurden mehrere Testläufe mit je 200 Testfragen durchgeführt. Die erste Testmenge bestand aus zufällig ausgewählten Fragen, die mit meinem eigenen Nutzerprofil getestet wurden. Dieser Testlauf lieferte kaum nutzbare Ergebnisse, da nur bei 29 der getesteten Fragen überhaupt ein Antwortkandidat mit dem Profil in Verbindung gebracht werden konnte. Außerdem konnte eine potentielle Verbesserung der Ergebnisse nur bei einer dieser 29 Fragen festgestellt werden, was zu der Schlussfolgerung führte, dass der Einsatz von Profildaten nicht für Anwendungsfälle geeignet ist, in denen die Fragen keine Korrelation mit dem genutzten Profil aufweisen.
Da die Grundannahme meiner Arbeit war, dass Nutzer in erster Linie Fragen zu den Interessensgebieten stellen, welche sich aus ihrem Profil ableiten lassen, sollten die weiteren Testläufe genau diesen Fall beleuchten. Dazu wurden 200 Testfragen aus dem Bereich Sport ausgewählt und mit einem Profil getestet, welches Stichworte zu unterschiedlichen Sportarten enthielt. Die Tests mit den Sportfragen waren wesentlich aussagekräftiger. Auch hier deuteten die Ergebnisse darauf hin, dass der Ansatz kein großes Potential zur Verbesserung des Rankings hat. Eine genauere Betrachtung einiger ausgewählter Beispiele zeigte allerdings, dass die Integration von Profildaten für bestimmte Anwendungsfälle, wie z.B. offene Fragen für die es mehr als eine korrekte Antwort gibt, durchaus zu einer Verbesserung der Ergebnisse führen kann. Außerdem wurde festgestellt, dass viele der schlechten Ergebnisse auf Inkosistenzen in der DBpedia-Ontologie und grundsätzliche Probleme im Umgang mit Wissensbasen in natürlicher Sprache beruhen.
Die Schlussfolgerung meiner Arbeit ist, dass der in dieser Arbeit vorgestellte Ansatz zur Integration von Profilinformationen für den aktuellen Anwendungsfall von LogAnswer nicht geeignet ist, da vor allem Faktenwissen aus sehr unterschiedlichen Domänen abgefragt wird und offene Fragen nur einen geringen Anteil ausmachen.
Ein neueres Thema innerhalb des Forschungsbereichs Semantic Web behandelt die Verarbeitung von Anfragen über Linked Open Data (LOD). Wie in der Literatur bereits diskutiert wurde, lässt sich der losen Zergliederung innerhalb des "Web of Data" und dessen Datenquellen durch moderne föderierte Verarbeitungsstrategien bezüglich eingehender Anfragen begegnen. Dieser Ansatz ist jedoch umso mehr abhängig von aktuellen statistischen Informationen (Datenstatistiken) über sämtliche der benutzten Datenquellen einerseits, und genauen Schätzungen von Kardinalitäten und Selektivitäten andererseits. Da föderierte Datenquellen im Allgemeinen keine Auskunft über die Statistik der von ihnen verwalteten Daten geben, schlagen sich Änderungen an diesen Daten nicht automatisch in den zentralen Datenstatistikkatalogen nieder - die verwalteten Datenstatistiken werden obsolet. In der vorliegenden Arbeit wird die Erweiterung eines RDF-basierten Query-Federators beschrieben, die die Obsoleszenz von zentral verwalteten Datenstatistiken beurteilen und eine gegebenenfalls notwendige Aktualisierung einzelner Datenstatistiken unternehmen können soll. Als Grundlage dazu dient die Beobachtung auftretender Fehler in der Kardinalitätsschätzung ausgewerteter Queries. Eine Evaluation des Systems wird anschließend beschrieben. Die Ergebnisse zeigen die prinzipielle Richtigkeit der zugrundeliegenden Überlegungen, die praktische Anwendbarkeit kann jedoch nicht überzeugend demonstriert werden. Die Wiederverwendung der entwickelten Systemerweiterung für vielversprechendere Ansätze erscheint jedoch möglich und wird diskutiert.
Ziel dieser Diplomarbeit ist es, innerhalb von sechs Monaten eine gamebasierte Anwendung für Android-Smartphones zu entwickeln, die durch eng beieinander liegende Stationen historisches Wissen vermittelt. Die einzelnen Spielstationen sollen mit Hilfe von GPS1-Positionen festgelegt und erkannt werden. Als Gelände wurde die Burgruine Reichenstein in der Verbandsgemeinde Puderbach im Westerwald ausgewählt. Es soll untersucht werden, wie viele GPS-Stationen auf engem Raum unterzubringen sind und wie weit sie voneinander entfernt sein müssen, um gute Ergebnisse erzielen zu können. Dazu ist es nötig, sowohl den Grundriss der Burg als auch die Beschaffenheit des Geländes mit einzubeziehen.
An den einzelnen Stationen sollen auf spielerische Art und Weise historische Informationen über die Burgruine Reichenstein vermittelt werden. Neben der Recherche, der Konzepterstellung und der Implementierung umfasst diese Arbeit auch eine Evaluation, die eine Bewertung der Anwendung ermöglicht.
In der heutigen Robotik-Forschung soll hauptsächlich die Interaktion von autonomen, mobilen Robotern mit vorher nicht bekannten Umgebungen ermöglicht werden. Eines der grundlegendsten Probleme, das in diesem Kontext gelöst werden muss, ist die Frage, wo der Roboter ist und wie seine Umgebung in unmittelbarer Nähe, aber auch an bereits besuchten Orten aussieht " das sogenannte SLAM Problem.
In dieser Arbeit wird ein GraphSLAM System vorgestellt, das einen graphbasierten Lösungsansatz für dieses Problem darstellt. Ein solches System besteht aus einem Frontend und einem Backend. Das Frontend hat die Aufgabe, aus den Sensordaten einen Graphen zu konstruieren, der die relative Lage der Messungen zueinander widerspiegelt. Da sich Messungen widersprechen können, ist ein solcher Graph im Allgemeinen inkonsistent. Das Backend hat nun die Aufgabe, diesen Graphen zu optimieren, d. h. eine Konfiguration der Knoten zu bestimmen, die sich nur minimal widerspricht. Knoten repräsentieren Roboterposen, die aufgrund der enthaltenen Rotationen sog. Mannigfaltigkeiten sind und keinen gewöhnlichen Vektorraum bilden. Dies wird in der Arbeit konsequent berücksichtigt, was zu einem sehr effizienten und eleganten Optimierungsverfahren führt.
Augmented Reality bedeutet eine reale Umgebung mit, meistens grafischen, virtuellen Inhalten zu erweitern. Oft sind dabei die virtuellen Inhalte der Szene jedoch nur ein Overlay und interagieren nicht mit den realen Bestandteilen der Szene. Daraus ergibt sich ein Authentizitätsproblem für Augmented Reatliy Anwendungen. Diese Arbeit betrachtet Augmented Reality in einer speziellen Umgebung, mit deren Hilfe eine authentischere Darstellung möglich ist. Ziel dieserArbeitwar die Erstellung eines Systems, das Zeichnungen durch Techniken der Augmented Reality mit virtuellen Inhalten erweitert. Durch das Anlegen einer Repräsentation soll es der Anwendung dabei möglich sein die virtuellen Szeneelementemit der Zeichnung interagieren zu lassen. Dazu wurden verschiedene Methoden aus den Bereichen des Pose Tracking und der Sketch Recognition disktutiert und für die Implementierung in einem prototypischen System ausgewählt. Als Zielhardware fungiert ein Android Smartphone. Kontext der Zeichnungen ist eine Dungeon Karte, wie sie in Rollenspielen vorkommt. Die virtuellen Inhalte nehmen dabei die Form von Bewohnern des Dungeons an, welche von einer Agentensimulation verwaltet werden. Die Agentensimulation ist Gegenstand einer eigenen Diplomarbeit [18]. Für das Pose Tracking wurde ARToolkitPlus eingesetzt, ein optisches Tracking System, das auf Basis von Markern arbeitet. Die Sketch Recognition ist dafür zuständig die Inhalte der Zeichnung zu erkennen und zu interpretieren. Dafür wurde ein eigener Ansatz implementiert der Techniken aus verschiedenen Sketch Recognition Systemen kombiniert. Die Evaluation konzentriert sich auf die technischen Aspekte des Systems, die für eine authentische Erweiterung der Zeichnung mit virtuellen Inhalten wichtig sind.
Im Zeitraum zwischen 1985 bis 1994 hatten ethnische Konflikte einen Anteil von über 50% der Gesamtzahl aller Konflikte. Oft entstehen Konflikte zwischen verschiedenen ethnischen Gruppen oder zwischen einer ethnischen Gruppe und dem Staat. Die Gründe hierbei sind sehr vielfältig und reichen von der sozialen Benachteiligung bis hin zur Bedrohung kollektiver Identität. Eine wesentliche Schlüsselrolle spielt dabei die politische Elite, die politische und ökonomischen Kriesen ausnutzt, um ethnische Gruppen zu mobilisieren.
Diese Diplomarbeit versucht die Ursachen solcher ethnischer Konflikte am Beispiel des ehemaligen Jugoslawiens zu untersuchen und fokusiert sich dabei besonders auf die Rolle der politische Elite. Hierfür wurde der Ansatz der agentenbasierten Simulation verfolgt. Das mit ArcGIS, EmIL und Repast realisierte agentenbasierte Modell erlaubt eine gründliche Untersuchung solcher Konflikte. Die Haupteigenschaft liegt dabei in der Fähigkeit der Agenten, ein normatives Verhalten entwickeln zu können, womit komplexte soziale Verhaltensweisen simuliert werden können.
Die Thesis beschäftigt sich mit der Stellung von Customer Relationship Management-Systemen (CRM-Systemen) in Unternehmen und den Möglichkeiten die diese bieten. Die Motivation der Arbeit resultiert aus dem Anliegen den Wert von CRM-Systemen einordnen zu können, zu ermitteln inwieweit ein solches System Unternehmensprozesse unterstützen, beziehungsweise verbessern kann und an welche Bedingungen die Nutzung eines solchen Systems geknüpft ist. Für den konkreten Anwendungsfall ergibt sich die Motivation aus der Möglichkeit selbstständig ineffiziente Prozesse zu optimieren und zum Abschluss der Arbeit Perspektiven aufzuzeigen, die die Unternehmensabläufe verbessern und zu einer größeren Wertschöpfung beitragen.
Die Arbeit beschäftigt sich mit den kundenbezogenen Unternehmensprozessen des Unternehmens Alere und deren Qualität in Hinblick auf die zukünftige Einführung eines CRM-Systems. Im Moment existieren kaum einheitliche Anforderungen, die die Prozesse erfüllen müssen. Deshalb ist es nicht möglich eine Aussage über die Qualität der Prozesse zu machen. Diese Umstände verlangen nach einem Tool, das die Qualität der Prozesse sicherstellt und in der Lage ist, vorgegebene Anforderungen einzuhalten. Diese Lücke soll in Zukunft das CRM-System ausfüllen. Die Thesis soll einen Einblick in das Thema gewähren um einen Eindruck von den Vorteilen von CRM-Systemen zu vermitteln.
Anschließend muss, ausgehend von dem Anwendungsfall und der Motivation, die Identifikation von Schwachstellen in den Prozessabläufen erfolgen. Aus den gewonnenen Daten wiederum soll eine Optimierung der kundenbezogenen Unternehmensprozesse und -abläufe mit Hilfe der Eigenschaften des CRM-Systems erfolgen. Da mehrere Abteilungen des Unternehmens direkt oder indirekt mit dem Kunden in Kontakt kommen, liegt das Hauptaugenmerk auf Dokumentation, der zentralen Speicherung der Kundendaten, sowie der verlustfreien Kommunikation zwischen Kunden und Mitarbeiter, beziehungsweise unter den Mitarbeitern. Die Arbeit soll folgende Ergebnisse liefern: Einen Anforderungskatalog für die kundenorientierten Prozesse, der auf erarbeiteten Grundlagen basiert.
Weiterhin die Modellierung der Prozesse und einen Schwachstellenkatalog der die identifizierten Schwächen der Prozesse beinhaltet. Davon ausgehend einen Anforderungskatalog für die CRM-System gestützten Prozesse und schließlich eine Modellierung der optimierten Prozesse abgeschlossen durch die Diskussion und Empfehlungen.
Aktuell stehen nur wenige Informationen über die Verbreitung von Cloud Computing in deutschen Hochschulen zur Verfügung. Ein besseres Verständnis vom Stand der Technik in diesem Bereich würde die Modernisierung der Hochschulen in Deutschland und die Entwicklung von geeigneteren Cloud Produkten und neuen Geschäftsmodellen für diese Nische ermöglichen. Zu diesem Zweck wird eine Literaturrecherche über Cloud Computing und IT-Verbreitung und eine empirische Untersuchung mit einem Online-Fragebogen an Hochschulen in Deutschland durchgeführt, um den aktuellen Stand von Cloud Computing an deutschen Hochschulen zu untersuchen.
Ebenso fragt die Untersuchung nach den Chancen und Risiken, die die Mitarbeiterinnen und Mitarbeiter von Hochschulrechenzentren bei der Nutzung von Cloud Computing sehen. Im Anschluss daran werden Experten aus Universitäten und Unternehmen interviewt, um die gesammelten Informationen vom Online-Fragebogen und während der Forschung zu erweitern. Die erwarteten Ergebnisse werden dazu dienen, um eine Empfehlung für Hochschulen in Deutschland zu verfassen, ob sie Cloud Technologien schon benutzen sollen oder nicht. Darüber hinaus wird eine Liste mit kritischen Leitfragen vorgestellt, die vor der Migration zum Cloud Computing berücksichtig werden sollte.
Diese Arbeit beschreibt einen Ansatz zur webbasierten und GPU-unterstützten medizinischen Visualisierung. Der Schwerpunkt liegt auf der client-seitigen Ausführung von direktem Volumen-Rendering mittels WebGL und der Übertragung von medizinischen Datensätzen von Server zu Client. Die Motivation dieser Arbeit liegt vor allem in den neuesten Entwicklungen von Webtechnologien begründet, da es bisher nicht möglich war hardwarebeschleunigte 3D-Grafik direkt im Webbrowser darzustellen. Erst seit der Entwicklung der 3D-Grafik-Programmierschnittstelle WebGL besteht die Möglichkeit GPU-unterstütztes Volumenrendering im Browser-Kontext ohne den Einsatz zusätzlicher Software zu realisieren. Es wird ein webbasiertes Volumenrendering-System vorgestellt, das die Umsetzung von Volumen-Raycasting mit WebGL zur direkten Darstellung von Volumendaten in Echtzeit behandelt. Für die technische Umsetzung wurden das Google Web Toolkit und die Google App Engine als Infrastruktur verwendet.
Diese Arbeit untersucht an einem realistischen Szenario den Ansatz der bildbasierten Integration von Software hinsichtlich seiner Praktizierbarkeit. Als praktische Aufgabe wird die Entwicklung eines Expertensystems für Online- Poker-Plattformen durchgeführt. Die wichtigsten, zu untersuchenden Aspekte sind der Aufwand der Implementierung, die Performance und die Qualität dieses Ansatzes.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
Die Arbeit zeigt die Entwicklung einer virtuellen Welt als Facebook App. Grundlage bietet hierfür ein Szenengraph, der an die Anforderungen der virtuellen Welt angepasst wurde. Bei der Entwicklung liegt ein Schwerpunkt auf neuer und zum Teil noch experimenteller Web-Technologie (Google Web Toolkit, Google App Engine). In der virtuellen Welt schlüpft der Benutzer in die Rolle eines Avatars. Er kann Räume seiner Facebook-Freunde besuchen, seinen eigenen Raum gestalten und neue 3D-Modelle für den Avatar oder die Inneneinrichtung in die virtuelle Welt hochladen.
Diese Diplomarbeit beschreibt die Entwicklung einer Web Service orientierten Umgebung zur Verarbeitung von Pegeldaten mehrerer Gewässer in Zusammenarbeit mit der Bundesanstalt für Gewässerkunde (BfG). Sie dokumentiert den gesamten Entwicklungsablauf und gibt eine Einführung in die verwendeten Technologien. Für XHydro, ein Austauschformat zum wirtschaftlichen und organisationsübergreifenden Austausch von Zeitreihen, wird zusätzlich eine Bewertung des Systems inklusive Verbesserungsvorschlägen gegeben.
Echtzeitsysteme spielen in der heutigen Zeit in vielen Anwendungsbereichen eine bedeutende Rolle. Beispiele hierfür finden sich in der Robotik, der Fabrikautomation, der Medizintechnik, aber auch in Bereichen aus dem täglichen Leben, wie im Automobilbereich oder in der Mobilkommunikation. Trotz der ständig wiederkehrenden Begegnung mit ihnen im Alltag, sind Echtzeitsysteme häufig innerhalb von größeren Systemen eingebettet und können somit nur selten vom jeweiligen Nutzer bewusst als eigenständig wahrgenommen werden.
Um spezifische Eigenschaften des Gebiets Echtzeitsysteme im Schulunterricht oder in der Ausbildung an Hochschulen den Lernenden sichtbar zu machen, existiert im Labor der Arbeitsgruppe Echtzeitsysteme der Universität Koblenz-Landau ein Versuchsaufbau mit dem Namen "Wippe", bei dem eine Kamera die Bewegung einer Kugel auf einer ebenen Fläche aufnehmen und vermessen kann. Durch die Neigung der Fläche in zwei Achsen ist die Wippe prinzipiell in der Lage, die Kugel zu bewegen und zum Halten zu bringen. Insbesondere soll verhindert werden, dass die Kugel von der Fläche fällt. Die vorliegende Arbeit beschäftigt sich mit der Analyse und Überarbeitung des Wippe-Systems. Außerdem wird ein Regelalgorithmus für eine automatische Steuerung des Systems realisiert.
Das Wippe-Experiment soll für didaktische Zwecke eingesetzt werden und ein offenes System darstellen, welches die Merkmale und Eigenschaften eines Echtzeitsystems exemplarisch verdeutlicht.
Distanzvektor-Routing-Protokolle sind Interior-Gateway-Protokolle, bei denen jeder Router anhand der Informationen, die er von seinen Nachbarn erhält, eine Routingtabelle mit den kürzesten Wegen und dazugehörigen Kosten zu allen anderen Routern des Netzwerks aufbaut. Distanzvektor-Routing-Protokolle sehen jedoch nur unzureichende Mechanismen vor, um die Sicherheit ihrer Operationen zu gewährleisten. Es wird vielmehr einfach davon ausgegangen, dass die Umgebung vertrauenswürdig ist. Router können sich aber aus verschiedenen Gründen böswillig verhalten und falsche Routingupdates einschleusen um das Routing zu manipulieren. Authentizität und Integrität der übermittelten Routinginformationen müssen daher sichergestellt werden; dabei soll eine Balance zwischen Nutzen und Performance gefunden werden.
Diese Arbeit untersucht verschiedene Lösungsansätze, die sich die Erfüllung dieser Anforderungen zum Ziel gesetzt haben, und stellt deren Vor- und Nachteile einander gegenüber.
QEMU ist eine Open-Source Virtualisierungssoftware, durch die Computersysteme simuliert werden können. Durch VDE (Virtual Distributed Ethernet) ist es möglich, mehrere durch QEMU virtualisierte Computer miteinander zu verbinden und so ein virtuelles Netzwerk zu erzeugen. Mithilfe von Virtualisierung können Netze zum Testen von Netzwerkanwendungen und -protokollen erzeugt werden, deren Aufbau oder Nutzung ohne Virtualisierung impraktikabel oder schlicht unerschwinglich wäre. Ziel dieser Arbeit ist es, ein Programm zu entwickeln, welches eine in einer Szenario-Datei hinterlegte Netzwerktopologie mit QEMU und VDE-Switches aufbauen kann. Es soll ein Vergleich angestellt werden zwischen Netzen, die mit QEMU aufgebaut wurden und solchen, die über VNUML aufgebaut wurden.
Cloud Computing is a topic that has gained momentum in the last years. Current studies show that an increasing number of companies is evaluating the promised advantages and considering making use of cloud services. In this paper we investigate the phenomenon of cloud computing and its importance for the operation of ERP systems. We argue that the phenomenon of cloud computing could lead to a decisive change in the way business software is deployed in companies. Our reference framework contains three levels (IaaS, PaaS, SaaS) and clarifies the meaning of public, private and hybrid clouds. The three levels of cloud computing and their impact on ERP systems operation are discussed. From the literature we identify areas for future research and propose a research agenda.
This paper describes results of the simulation of social objects, the dependence of schoolchildren's professional abilities on their personal characteristics. The simulation tool is the artificial neural network (ANN) technology. Results of a comparison of the time expense for training the ANN and for calculating the weight coefficients with serial and parallel algorithms, respectively, are presented.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
Die Identifizierung von wiederverwendbarem Source-Code für die Implementierung von SOA Services ist noch immer ein ungelöstes Problem. Diese Masterarbeit beschreibt einen Ansatz zur Identifizierung von Legacy-Code, der für eine Service-Implementierung geeignet ist. Der Ansatz basiert auf dynamischer Analyse und dem Einsatz von Data Mining Techniken. Im Rahmen des SOAMIG Projekts wurden durch dynamische Analyse Geschäftsprozesse auf Source- Code abgebildet. Der große Umfang der daraus resultierenden Traces macht eine Nachbearbeitung der Ergebnisse notwendig. In dieser Masterarbeit wurde die Anwendbarkeit von Data Mining Techniken zur Nachbearbeitng der dynamischen Traces untersucht. Zwei Data Mining Verfahren, Cluster-Analyse und Link- Analyse, wurden auf die dynamischen Traces einer Java/Swing Beispielsoftware angewendet. Die Ergebnisse deuten auf eine gute Verwendbarkeit der beiden Data Mining Techniken zur Identifizierung von Legacy-Code für die Service-Implementierung hin.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Um den wachsenden Anforderungen an die Automobilindustrie gerecht zu werden, reduzieren Automobilhersteller stetig die Fertigungstiefe und verlagern wertschöpfende Anteile zunehmend auf die Zulieferer. Dies macht es erforderlich, dass Unternehmen enger zusammenarbeiten und fördert die Entstehung komplexer Logistiknetzwerke.
Um den damit einhergehenden Anforderungen an den Informationsaustausch zu begegnen, wurde 2009 das Projekt RFID-based Automotive Network (RAN) ins Leben gerufen. Die Initiative hat sich zum Ziel gesetzt, eine standardisierte Architektur für eine effiziente Materialflusssteuerung entlang der gesamtem Supply Chain zu schaffen. Kernkomponente dieser Architektur ist der Infobroker, eine Informationseinheit, die über Auto-ID-Technologie erfasste Daten aus dem Materialfluss automatisiert an Teilnehmer der Supply Chain kommuniziert. Die Abschlussarbeit beschäftigt sich in Kooperation mit der IBS AG, einem Softwareunternehmen und Konsortialpartner im Projekt, mit einem Teilbereich des Austausches von Warendaten.
Zunächst werden theoretische Grundlagen geschaffen, indem auf Merkmale einer Supply Chain eingegangen und anschließend Standardisierungsbestrebungen beschrieben werden. Um den Bezug zum Projekt herstellen zu können, wird im Supply Chain Kapitel näher auf die Automobilindustrie und Trends in diesem Sektor eingegangen. Im Bereich der Standardisierung werden Standards im elektronischen Datenaustausch vertiefend dargestellt, um auch hier eine Überleitung zum Infobroker-Konzept zu schaffen. Im Analyseteil werden zu Beginn Projekte mit ähnlicher Problemstellung wie bei RAN vorgestellt und durch die Beschreibung von Gemeinsamkeiten und Unterschieden ein Bezug hergestellt. Daraufhin werden anhand von Projektdokumenten Anforderungen an das System beschrieben und mehrere Modelle zur Problemstellung entworfen. Mit Rich Pictures werden die IST-Problematik und der SOLL-Zustand zunächst beschrieben. Darauf aufbauend wird der Fluss von Warendaten zwischen zwei Unternehmen veranschaulicht und die Funktion des Infobrokers beim Informationsaustausch verdeutlicht. Ziel ist die Schaffung eines Verständnisses für die Herausforderungen des Projektes und wie die vorgeschlagenen Konzepte der RAN-Initiative zur Optimierung einer Automotive Supply Chain beitragen können.
MapReduce with Deltas
(2011)
The MapReduce programming model is extended slightly in order to use deltas. Because many MapReduce jobs are being re-executed over slightly changing input, processing only those changes promises significant improvements. Reduced execution time allows for more frequent execution of tasks, yielding more up-to-date results in practical applications. In the context of compound MapReduce jobs, benefits even add up over the individual jobs, as each job gains from processing less input data. The individual steps necessary in working with deltas are being analyzed and examined for efficiency. Several use cases have been implemented and tested on top of Hadoop. The correctness of the extended programming model relies on a simple correctness criterion.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Expert-driven business process management is an established means for improving efficiency of organizational knowledge work. Implicit procedural knowledge in the organization is made explicit by defining processes. This approach is not applicable to individual knowledge work due to its high complexity and variability. However, without explicitly described processes there is no analysis and efficient communication of best practices of individual knowledge work within the organization. In addition, the activities of the individual knowledge work cannot be synchronized with the activities in the organizational knowledge work.rnrnSolution to this problem is the semantic integration of individual knowledgernwork and organizational knowledge work by means of the patternbased core ontology strukt. The ontology allows for defining and managing the dynamic tasks of individual knowledge work in a formal way and to synchronize them with organizational business processes. Using the strukt ontology, we have implemented a prototype application for knowledge workers and have evaluated it at the use case of an architectural fifirm conducting construction projects.
Für die Planung von Wegen eines Gespanns sind komplexe Bewegungen verschiedener Bezugspunkte des Fahrzeugs zu beachten. Um die Betrachtung dieser Bewegungen zu vereinfachen, wird eine Fahrt in elementare Fahrbewegungen aufgeteilt, diese werden als Manöver bezeichnet. Ein Manöver besteht in diesem Zusammenhang aus zwei Elementen. Zum einen werden Pfade für bestimmte Bezugspunkte konstruiert, zum anderen wird das Gespann während der Manöverausführung von einem Korridor umschlossen. Die Pfade des Fahrzeugs müssen dabei fahrbar sein, das heißt, sie müssen die kinematischen Einschränkungen des Fahrzeugs beachten. Der Manöverkorridor kann als Grundlage verwendet werden, um die Kollisionsfreiheit zu garantieren. Während des Manövers verlässt kein Fahrzeugteil den Korridor. Es gibt verschiedene Manövertypen. Derzeit werden das Kurvenmanöver, das Wendemanöver und die Geradeausfahrt unterschieden. Außerdem kann ein Manöver zur Zeit mit zwei unterschiedlichen Konstruktionsmethoden erstellt werden, der konventionellen und der iterativen Methode.
In dieser Diplomarbeit wird eine Datenstruktur entworfen und implementiert, die ein Manöver konstruiert. Diese Datenstruktur wird in ein schon bestehendes Werkzeug integriert. Dabei kann der Benutzer mit der Software interagieren, um verschiedene Parameter eines Manövers zu verändern. Das Manöver wird daraufhin auf der Grundlage dieser Parameter konstruiert. Dazu gehört auch eine Visualisierung innerhalb der Software, in der die Bestandteile eines Manövers dargestellt werden können. Die Visualisierung kann in eine Bilddatei exportiert werden.
Ziel dieser Arbeit ist es, eine Anwendung für ein Augmented Reality Fernrohr zu entwickeln, die verschiedene Interaktions- und Explorationsmöglichkeiten umsetzt. Darüber hinaus sollen Erkenntnisse über den Einfluss auf die Vermittlung von Wissen gewonnen werden. Dafür soll innerhalb von sechs Monaten neben der Einarbeitung in die verschiedenen Themengebiete, dem Entwurf eines Konzepts und der Implementierung der Anwendung auch eine gründliche Evaluation durchgeführt werden. Da der Standort des Fernrohrs im Rahmen der Bundesgartenschau 2011 [BUG] in Koblenz am Rheinufer in der Nähe der Talstation der Seilbahn ist, bietet es sich an die Festung Ehrenbreitstein in den Fokus zu setzen. Dabei soll vor allem die Festungsarchitektur im Mittelpunkt stehen. Die Anwendung soll dem Benutzer einen Überblick über die Festungsanlagen geben und nebenbei auch einige geschichtliche Fakten vermitteln.
Um die verschiedenen Anforderungen und die damit verbundenen Aufgaben zu erfüllen und strukturiert zu erarbeiten, wurde vor Beginn der Arbeit ein Projektplan erstellt, der die 6 Monate in fünf verschiedenen Phasen unterteilt, die jeweils mit Meilensteinen enden. Die Phase soll die Einarbeitung in die Grundlagen, die Entwicklung des Konzepts und die softwaretechnische Planung umfassen. Die nächste Phase beschäftigt sich mit der Präevaluation, die genaueren Aufschluss über die Qualität des entwickelten Konzepts geben soll. Im Anschluss an die Auswertung der Präevaluation kommt die erste Implementierungsphase, die mit einem Prototypen abschließen soll. Im zweiten Implementierungsschritt sollen dann die grafischen Inhalte erstellt und die prototypische Anwendung mit Inhalten gefüllt werden.
Zum Abschluss des Projekts wird eine Evaluation durchgeführt, die Erkenntnisse über den Einfluss von Augmented Reality auf die Vermittlung von Wissen liefern soll.
In dieser Arbeit werden vier der derzeit verfügbaren webbasierten Visualisierungstools evaluiert (FlexViz, Jambalaya applet, Experimental jOWL TouchGraph, Plone ontology).
Im Rahmen dieser Arbeit werden weiterhin folgende Fragen erforscht: 1. Welche Anforderungen an die Visualisierung von Ontologien können definiert werden? 2. Wie kann eine Bewertung und Analyse durchgeführt werden? 3. Wie kann eine ausgewählte Methode getestet werden? Basierend auf den Ergebnissen dieser Fragestellungen stellte sich die Visualisierungsmethode FlexViz im gegebenen Szenario als beste heraus. FlexViz wurde eingesetzt, indem es in das Content Management System Plone integriert wurde. Es wurde mit VCD Ontologien getestet und schließlich aus der Sicht verschiedener Interessengruppen analysiert. Es zeigte sich, dass FlexViz ein gutes Tool zum Visualisieren, Verstehen und Analysieren von bereits entwickelten Ontologien ist, da die Benutzeroberfläche benutzerfreundlich und interaktiv ist. Jedoch zeigt FlexViz deutliche Schwächen bzgl. dem Bearbeiten, Erweitern und Entwickeln von Ontologien.
Der neue Personalausweis bietet mit der eID-Funktion die Möglichkeit sich online gegenüber anderen auszuweisen. Dafür ist eine Software notwendig, die auf dem lokalen Computer installiert ist. Diese Arbeit zeigt eine mögliche Vorgehensweise beim Entwurf und der Implementierung der notwendigen Funktionen solch einer Software.
API Migration bezeichnet den Wechsel einer benutzten API eines Programms in eine andere. Eine spezielle Form ist die sogenannte wrapper-basierte API Migration. In diesem Fall wird die API gewechselt, ohne das eigentliche Programm zu berühren. Sie wird unter Benutzung der neuen API reimplementiert. Dieser so genannte Wrapper besitzt das Interface der alten API, benutzt jedoch die Implementierung der neuen.
Dies ist ein interessanter Ansatz, da der Wrapper in jedem Programm eingesetzt werden kann, das bislang die alte API verwendet hat.
Um diesen Vorgang reproduzierbar zu machen, entwickeln wir eine ranking-basierte Methode, um einen Wrapper zu entwickeln. Hierbei implementieren wir abhängig von fehlschlagenden Testfällen immer die API-Methode mit der jeweils höchsten Priorität. So können wir jeden Implementierungssschritt rekonstruieren.
Im ersten Schritt entwickeln wir eine Infrastruktur, mit der wir Testsuites von Java-Projekten starten und messen können.
Mittels dieser Basis können wir nun die Ranking-Methode anweden, um einen Wrapper zu entwickeln.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen