004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (5)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (202)
- Mehrsprachig (3)
Gehört zur Bibliographie
- nein (751) (entfernen)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (221)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
In dieser Arbeit soll in Form einer Machbarkeitsanalyse untersucht werden, ob der Aufbau eines universitären Startups im Bereich der IT-Beratung möglich ist. Hierzu wird zunächst der Begriff der Beratung, der Beratungsbedarf sowie der relevante Markt näher analysiert. Durch empirische Forschung in Form von persönlichen Interviews mit IT-Unternehmen in der Region Koblenz sollen zudem nähere Erkenntnisse über die Machbarkeit der Unternehmung gewonnen werden. Die Forschungsergebnisse werden in Form einer konkreten Handlungsempfehlung präsentiert.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
The term "Augmented Reality (AR)" denotes the superposition of additional virtual objects and supplementary information over real images. The joint project Enhanced Reality (ER)1 aims at a generic AR-system. The ER-project is a cooperation of six different research groups of the Department of Computer Science at the University of Koblenz-Landau. According to Ronald Azuma an AR-system combines real and virtual environments, where the real and virtual objects are registered in 3-D, and it provides interactivity in real time [Azu97]. Enhanced Reality extends Augmented Reality by requiring the virtual objects to be seamlessly embedded into the real world as photo-realistic objects according to the exact lighting conditions. Furthermore, additional information supplying value-added services may be displayed and interaction of the user may even be immersive. The short-term goal of the ER-project is the exploration of ER-fundamentals using some specific research scenarios; the long-term goal is the development of a component-based ER-framework for the creation of ER-applications for arbitrary application areas. ER-applications are developed as single-user applications for users who are moving in a real environment and are wearing some kind of visual output device like see-through glasses and some mobile end device. By these devices the user is able to see reality as it is, but he can also see the virtual objects and the additional information about some value-added service. Furthermore he might have additional devices whereby he can interact with the available virtual objects. The development of a generic framework for ER-applications requires the definition of generic components which are customizable and composable to build concrete applications and it requires a homogeneous data model which supports all components equally well. The workgroup "Software Technology"2 is responsible for this subproject. This report gives some preliminary results concerning the derivation of a component-based view of ER. There are several augmented reality frameworks like ARVIKA, AMIRE, DWARF, MORGAN, Studierstube and others which offer some support for the development of AR-applications. All of them ease the use of existing subsystems like AR-Toolkit, OpenGL and others and leverage the generation process for realistic systems by making efficient use of those subsystems. Consequently, they highly rely on them.
In der heutigen Robotik-Forschung soll hauptsächlich die Interaktion von autonomen, mobilen Robotern mit vorher nicht bekannten Umgebungen ermöglicht werden. Eines der grundlegendsten Probleme, das in diesem Kontext gelöst werden muss, ist die Frage, wo der Roboter ist und wie seine Umgebung in unmittelbarer Nähe, aber auch an bereits besuchten Orten aussieht " das sogenannte SLAM Problem.
In dieser Arbeit wird ein GraphSLAM System vorgestellt, das einen graphbasierten Lösungsansatz für dieses Problem darstellt. Ein solches System besteht aus einem Frontend und einem Backend. Das Frontend hat die Aufgabe, aus den Sensordaten einen Graphen zu konstruieren, der die relative Lage der Messungen zueinander widerspiegelt. Da sich Messungen widersprechen können, ist ein solcher Graph im Allgemeinen inkonsistent. Das Backend hat nun die Aufgabe, diesen Graphen zu optimieren, d. h. eine Konfiguration der Knoten zu bestimmen, die sich nur minimal widerspricht. Knoten repräsentieren Roboterposen, die aufgrund der enthaltenen Rotationen sog. Mannigfaltigkeiten sind und keinen gewöhnlichen Vektorraum bilden. Dies wird in der Arbeit konsequent berücksichtigt, was zu einem sehr effizienten und eleganten Optimierungsverfahren führt.
Die vorliegende Arbeit stellt eine Methode für die korpusbasierte Analyse der Verwendung von Softwarebibliotheken in Java-Programmen vor. Die meisten größeren Softwareprojekte verwenden Softwarebibliotheken, die als Schnittstelle für den Programmierer sogenannte APIs (application programming interfaces) bereitstellen. Um den Umstieg von einer solchen API auf eine andere zu unterstützen, strebt man Werkzeuge zur automatisierten API-Migration an. Zur Entwicklung solcher Werkzeuge fehlen allerdings noch Basisdaten. Statistiken und Beobachtungen zur Verwendung von APIs in der Praxis wurden bisher nur mit sehr kleinen Korpora von Projekten und APIs durchgeführt. Wir stellen in dieser Arbeit daher eine Analysemethode vor, die für Messungen an großen Korpora geeignet ist. Hierzu erzeugen wir zunächst einen Korpus von auf SourceForge gehosteten Open-Source-Projekten sowie einen Korpus von Softwarebibliotheken. In der Folge werden alle Projekte des Korpus compiliert, wobei ein Compiler-Plugin für den javac detaillierte Informationen über jede einzelne Methode liefert, die der Compiler erstellt. Diese Informationen werden in einer Datenbank gespeichert und analysiert.
In dieser Dissertation wird eine Verfahrensweise für die formale Spezifikation und Verifikation von Benutzerschnittstellen unter Sicherheitsaspekten vorgestellt. Mit dieser Verfahrensweise können beweisbar sichere Benutzerschnittstellen realisiert werden. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird eine Methodologie für die formale Beschreibung von Mensch-Maschine-Interaktion entwickelt. Im zweiten Teil werden gängige Computersicherheitskonzepte für die Mensch-Maschine-Interaktion angepasst und mit den im ersten Teil entwickelten Methoden formalisiert. Dabei wird ein generisches formales Modell von Mensch-Maschine-Interaktion erstellt. Im dritten Teil wird die Methodologie, die in den ersten beiden Teilen entwickelt wurde, an einem sicheren Email-Client als exemplarischen Anwendungsprogramm demonstriert.
The lack of a formal event model hinders interoperability in distributed event-based systems. Consequently, we present in this paper a formal model of events, called F. The model bases on an upper-level ontology and pro-vides comprehensive support for all aspects of events such as time and space, objects and persons involved, as well as the structural aspects, namely mereological, causal, and correlational relationships. The event model provides a flexible means for event composition, modeling of event causality and correlation, and allows for representing different interpretations of the same event. The foundational event model F is developed in a pattern-oriented approach, modularized in different ontologies, and can be easily extended by domain specifific ontologies.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Conventional security infrastructures in the Internet cannot be directly adopted to ambient systems, especially if based on short-range communication channels: Personal, mobile devices are used and the participants are present during communication, so privacy protection is a crucial issue. As ambient systems cannot rely on an uninterrupted connection to a Trust Center, certiffed data has to be veriffed locally. Security techniques have to be adjusted to the special environment. This paper introduces a public key infrastructure (PKI) to provide secure communication channels with respect to privacy, confidentiality, data integrity, non-repudiability, and user or device authentication. It supports three certiffcate levels with a different balance between authenticity and anonymity. This PKI is currently under implementation as part of the iCity project.
Die Entwicklung eines IT-gestützten europäischen Systems zur öffentlichen Auftragsvergabe ist ein wichtiges Ziel der EU um die Effizienz, Transparenz und Wettbewerbsfähigkeit im öffentlichen Beschaffungswesen des europäischen Binnenmarktes zu verbessern. Ein großes Hindernis für die grenzüberschreitende elektronische Abwicklung der Beschaffungsprozesse ist die Heterogenität der nationalen Beschaffungssysteme in Bezug auf technische, organisatorische und rechtliche Unterschiede. Zur Überwindung dieses Hindernisses finanziert die Europäische Kommission einige Initiativen, um grenzüberschreitend Interoperabilität der öffentlichen Beschaffungssysteme zu erreichen. Pan European Public Procurement OnLine (PEPPOL) ist ein solches Projekt, das die Pilotierung eines interoperablen pan-europäischen Systems zur elektronischen Unterstützung der öffentlichen Beschaffungsprozesse als Ziel hat. rnrnService-orientierte Architekturen(SOA) scheinen einen vielversprechenden Ansatz für die Realisierung solch verteilter Architekturen zu liefern, da sie die lose Kopplung und Interoperabilität zwischen Systemkomponenten fördert. Diese Masterarbeit diskutiert daher das SOA(Service-orientierte Architektur)-Konzept und die Fragestellung, wie seine Konzepte, Methoden und Technologien für die Entwicklung von interoperablen IT-Systemen für die elektronische Vergabe öffentlicher Aufträge verwendet werden können. Diese Diskussion wird durch eine praktische Anwendung des diskutierten service-orientierten Ansatzes erweitert, in dem die Konzeption und prototypische Implementierung eines Teilsystems der VCD Domäne durchgeführt wird. Zu diesem Zweck werden wichtige Aspekte bezüglich Interoperabilität und damit verbundener Standards und Technologien untersucht und im Kontext der öffentlichen Auftragsvergabe betrachtet.
Die vorliegende Arbeit beschäftigt sich mit der Abbildung von Ecore nach grUML. Dabei wird sowohl die Transformation von in Ecore modellierten Modellen nach Graphen in grUML als auch die Konvertierung von Ecore-Metamodellen nach grUML-Schemas betrachtet. Zunächst werden die beiden Modellierungssprachen Ecore und grUML einzeln beschrieben. Dabei werden die Metamodelle der Sprachen erklärt und die Programmierschnittstellen vorgestellt. Im Anschluss werden Unterschiede und Gemeinsamkeiten von grUML und Ecore erläutert und auf dieser Grundlage eine Abbildung definiert. Außerdem werden Anforderungen an die Implementierung der Transformation festgehalten. Danach folgen verschiedene Details zur Realisierung. Zum Schluss wird mit Hilfe einiger Beispiele gezeigt, welche Ergebnisse durch die Transformation entstehen.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Zahlreiche Studien belegen, dass menschliche Bewegungen Informationen über den Akteur in sich bergen. Beobachter sind daher in der Lage, Dinge wie Persönlichkeit, Geschlecht und Gefühlslage allein aus Bewegungen von Menschen zu erkennen. Um dem Ziel nach glaubwürdigen und realistischen virtuellen Charakteren näher zu kommen, verbesserte sich in den letzten Jahren vorwiegend das Aussehen der Charaktere. Dank moderner Techniken und einer rapiden Entwicklung der Computer Hardware können heute visuell extrem realistische Charaktere in virtuellen Echtzeitumgebungen dargestellt werden. Trotz ihrer visuellen Qualität werden sie jedoch in interaktiven Umgebungen häufig als mechanisch wahrgenommen. Diese Störung der Illusion, einem lebendigen, Menschen ähnlichem Lebewesen gegen über zu stehen ist in einem mangelndem menschlichen Verhalten des virtuellen Charakters begründet. Daher können ausdrucksvolle Bewegungen, die einen emotionalen Zustand des Charakters vermitteln, dazu verhelfen dem Menschen ähnlichere und daher glaubwürdigere Charaktere zu realisieren. Im Rahmen dieser Diplomarbeit wird die Umsetzbarkeit eines Systems zur automatischen Generierung emotional expressiver Charakter Animationen untersucht. Übliche Techniken zur Erstellung von Animationen sind sehr aufwendig und zeitintensiv. Um alle möglichen Variationen von Bewegungen in einer interaktiven Umgebung zu erstellen kommen solche Ansätze daher nicht in Frage. Um interaktive Charakter zu ermöglichen, welche in der Lage sind ihre Gefühle zum Ausdruck zu bringen, wird daher diese Problematik im Zuge dieser Diplomarbeit behandelt werden. Einschlägige Literatur aus Forschungsgebieten, welche sich mit Emotionen und Bewegungen befassen werden im Rahmen dieser Arbeit untersucht. Eigenschaften, anhand derer Menschen Emotionen in Bewegungen erkennen, werden technisch in einem Animationssystem umgesetzt, um aus neutralen Animationen emotionale Bewegungen zu generieren. Abschliessend werden die erstellten Ergebnisanimationen in Tests ausgewertet in Bezug auf Erkennbarkeit der Emotionen und Qualität der Ergebnisse.
Semantic descriptions of non-textual media available on the web can be used to facilitate retrieval and presentation of media assets and documents containing them. While technologies for multimedia semantic descriptions already exist, there is as yet no formal description of a high quality multimedia ontology that is compatible with existing (semantic) web technologies. We explain the complexity of the problem using an annotation scenario. We then derive a number of requirements for specifying a formal multimedia ontology, including: compatibility with MPEG-7, embedding in foundational ontologies, and modularisation including separation of document structure from domain knowledge. We then present the developed ontology and discuss it with respect to our requirements.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Graphen sind eine gute Wahl um strukturierte Daten zu repräsentieren. TGraphen (typisierte, attributierte, geordnete und gerichtete Graphen) sind eine sehr generische Graphenart, die in vielen Bereichen verwendet werden können. Das Java Graphenlabor (JGraLab) bietet eine effiziente Implementierung von TGraphen mit all ihren Eigenschaften. Zusätzlich stellt es, unter anderem, die Anfragesprache GReQL2 zur Verfügung, die dazu verwendet werden kann, Daten aus einem Graphen zu extrahieren. Es verfügt jedoch nicht über eine generische Bibliothek von gängigen Graphalgorithmen. Diese Studienarbeit ergänzt JGraLab durch eine generische Algorithmenbibliothek namens Algolib, die eine generische und erweiterbare Implementierung einiger wichtiger gängiger Graphalgorithmen enthält. Das Hauptaugenmerk dieser Arbeit liegt auf der Generizität von Algolib, ihrer Erweiterbarkeit und der Methoden der Softwaretechnik die benutzt wurden um beides zu erreichen. Algolib ist auf zwei Weisen erweiterbar. Bereits enthaltene Algorithmen können erweitert werden um speziellere Probleme zu lösen und weitere Algorithmen können auf einfache Weise der Bibliothek hinzugefügt werden.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
As Enterprise 2.0 (E2.0) initiatives are gradually moving out of the early experimentation phase it is time to focus greater attention on examining the structures, processes and operations surrounding E2.0 projects. In this paper we present the findings of an empirical study to investigate and understand the reasons for initiating E2.0 projects and the benefits being derived from them. Our study comprises seven in-depth case studies of E2.0 implementations. We develop a classification and means of visualising the scope of E2.0 initiatives and use these methods to analyse and compare projects.
Our findings indicate a wide range of motivations and combinations of technology in use and show a strong emphasis towards the content management functionality of E2.0 technologies.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
In dieser wissenschaftlichen Ausarbeitung werden auf Basis einer Literaturrecherche Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen identifiziert und beschrieben. Darüber hinaus werden im Verlauf der Arbeit verschiedene Modelle adaptiert, erstellt und fortlaufend erweitert. Dieser Prozess mündet in einem integrativen Modell. Die Grundproblematik besteht in der Notwendigkeit externe Wissensquellen in die eigenen Betriebsabläufe einfließen zu lassen. Dieses Modell der Open Innovation wird in der Literatur besonders für kleine und mittelständische Unternehmen als unausweichlich angesehen, um konkurrenzfähig zu bleiben. Die Gründe dafür werden ebenso wie die Möglichkeiten einer erfolgreichen Zusammenarbeit dargelegt und beschrieben. Deutschland weist im internationalen Vergleich eine verhältnismäßig hohe Beteiligung an Wissens- und Technologietransfers auf. Dennoch geht eine Vielzahl von Unternehmen davon aus, ihre Institution würde nicht von Wissensverwertungsmaßnahmen profitieren.
In der Literatur existiert kein Modell, welches die Verwertungsschritte und die Anreize für Universitäten und Unternehmen verbindet. Somit schließt diese Ausarbeitung die identifizierte Lücke durch das in Kapitel 4.4 abgebildete integrative Modell. Durch die ausformulierten Anreizfaktoren können sowohl Universitäten und Unternehmen als auch deren Mitarbeiter erkennen, ob eine Zusammenarbeit bezüglich eines aktuellen Forschungsthemas sinnvoll erscheint.
Während auf Basis der Literaturrecherche zunächst theoretische Grundlagen definiert werden, folgt im Anschluss eine Schilderung der Anreizfaktoren der Wissensverwertung. Dabei wird zwischen materiellen und immateriellen Anreizen unterschieden. Diese Differenzierung und die Unterscheidung von extrinsischer und intrinsischer Motivation sind im Hinblick auf die folgenden Ergebnisse von großer Bedeutung. Infolgedessen wird ein Wissensverwertungsmodell vorgestellt und auf den vorliegenden Sachverhalt angepasst, bevor mit der Erweiterung des Modells um eine zusätzliche Perspektive und dem Hinzufügen der Anreizfaktoren begonnen wird.
Durch das beschriebene Vorgehen entsteht ein integratives Modell, das sowohl für Universitäten und deren Wissenschaftler als auch für kleine und mittelständische Unternehmen und deren Mitarbeiter von Bedeutung sein kann.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.