004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (203)
- Mehrsprachig (3)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
In der vorliegenden Arbeit werden verschiedene Ansätze zur Kalibrierung eines optischen Mikroskops behandelt. Dabei werden sowohl State-of-the-Art-Verfahren der Literatur implementiert als auch Verbesserungen an diesen Algorithmen durchgeführt, um die Ergebnisse stabiler und die Kalibrierung flexibler zu gestalten. Hierzu werden Algorithmen entwickelt, die einzelne Parameter der Kalibrierung vorkalibrieren können und somit das Endergebnis der eigentlichen Kalibrierung verbessern. Des weiteren werden diverse Techniken behandelt, die Störungen in den Eingabedaten unterdrücken und dadurch eine korrekte Modellschätzung für die Kalibrierung ermöglichen. Die Algorithmen werden dabei sowohl auf realen als auch auf synthetischen Daten untersucht und miteinander verglichen.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
Seit 2005 beschäftige ich mich im Rahmen der Künstlergruppe "Farbraum" mit visuellen Installationen und live Video Performaces auf kulturellen Events. Dafür haben wir einzelne Video-Performance Applikationen entwickelt, die die Probleme einzelner Projekte lösen.Was uns bisher noch nicht gelang ist a) eine modulare Softwarearchitektur zu entwickeln und b) ein Werkzeug zur Entzerrung ebener Flächen, die nicht rechtwinklig projiziert werden, zu erstellen (unter der Annahme, dass Projektoren verwendet werden). Diese Arbeit beschreibt die Lösung des ersten Problems durch die Entwicklung eines modularen Frameworks und des zweiten Problems durch die Implementation eines benutzerfreundlichen Moduls zur Entzerrung von ebenen Flächen. Die Entzerrung findet komplett manuell statt, indem der Benutzer die Koordinaten der Flächeneckpunkte durch das Ziehen der Punkte mit der Maus verändert. Dabei werden die xund y-Werte der Eckpunkte verändert, der z-Wert bleibt konstant. Während auf diese Weise die 3D-Interaktion mittels eines 2D-Eingabegeräts verhindert wird, führt die ausschließlich zweidimensionale Transofrmation der Flächen zu unerwünschten Textur-Mapping Artifakten, die durch das Triangulierungs-basierte Rendern von Grafikkarten entstehen. Um diese Artifakte zu vermeiden, wird ein Verfahren names "adaptive Subdivision" vorgestellt, das die entsandenen Rendering-Fehler korrigiert.
Implementierung eines Subsurface Scattering Shader Plugins für die Augenblick Raytracing Engine
(2009)
In dieser Ausarbeitung werden drei Beleuchtungsverfahren und mögliche Implementierungen zur Realisierung eines Subsurface Scattering Shaders vorgestellt und diskutiert. Subsurface Scattering bezeichnet allgemein den Lichttransport in die Oberfläche von Objekten hinein und durch sie hindurch. Die korrekte Darstellung dieses Phänomens ist sehr komplex und ist nicht mittels einer einfachen BRDF und gängiger Beleuchtungsverfahren darstellbar. Die drei Verfahren sind: Physikalisch korrektes Subsurface Scattering durch das Monte Carlo Pathtracing, vereinfachtes Subsurface Scattering durch Nutzung eines Licht-Lots, stark vereinfachtes Subsurface Scattering durch ein normalenabhängiges Aufhellen der Kanten. Durch die Nutzung des Monte Carlo Pathtracers können zudem Beleuchtungseffekte wie das sogennante Colorbleeding, dass heißt Lichttransport von einer farbigen Fläche auf eine andere mittels indirekter Beleuchtung, ermöglicht werden. Jedes Verfahren beinhaltet eine andere Kombination der bekanntlich gegenläufigen Eigenschaften Performanz und Korrektheit, je nachdem in welchem Rahmen und Aufgabenbereich Subsurface Scattering benötigt wird.Am Schluss der Arbeit werden Ergebnisse präsentiert, diskutiert und ein Ausblick auf weiterführende Arbeiten gegeben. Alle drei Verfahren wurden als Plugin für den Raytracer Augenblick von Oliver Abert realisiert.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.
In dieser Arbeit wird die Implementierung des SURF-Feature-Detektors auf der GPU mit Hilfe von CUDA detailliert beschrieben und die Ergebnisse der Implementation ausgewertet. Eine Einführung in das Programmiermodell von CUDA sowie in die Funktionsweise des Hesse-Detektors des SURF-Algorithmus sind ebenfalls enthalten.
In dieser Arbeit wurde untersucht, wie sich das bestehende Modell der Kabelsimulation verbessern lässt. Hierfür wurde zunächst analysiert, welches die Einflussfaktoren auf eine Simulation sind. Des Weiteren wurde der Einfluss der Rand- und Nebenbedingungen auf die Genauigkeit der Verlaufssimulation untersucht.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
Zufriedenheitsstudie der Studierenden des FB 4 an der Universität Koblenz-Landau am Campus Koblenz
(2009)
Nachdem der Studiengang Informationsmanagement im Jahr 2000 am Campus Koblenz der Universität Koblenz-Landau als erster deutscher Studiengang im Bachelorsystem akkreditiert wurde, haben sich im Laufe der Zeit einige Dinge verändert. Dies führte zu einer Änderung der Prüfungsordnung im Jahre 2006. Hieraus ergaben sich einige Umstellungen im Studiengang Informationsmanagement. Da im Zuge des Bolognaprozesses auch die Studiengänge Informatik und Computervisualistik in das neue System gewandelt wurden, stellten sich auch hier die Studienbedingungen um. In den letzten Jahren ist es vermehrt dazu gekommen, dass die Studierenden des Fachbereichs Informatik (im weiteren auch Fachbereich 4, oder FB 4) unzufrieden mit der augenblicklichen Situation am Campus Koblenz sind. Diese Unzufriedenheit scheint auf unterschiedlichen Ursachen zu beruhen. Da eine Unzufriedenheit innerhalb der Studierenden ein negatives Bild darstellt, ist es für eine Universität wünschenswert, wenn die Lehrenden eines Fachbereichs wissen, welche Einschätzungen die Studierenden hinsichtlich Ihres Studienfachs haben. Daher ist es von hoher Bedeutung, im Sinne der Qualitätssicherung, die Meinungen der Studenten über das Lehrkonzept sowie die einzelnen Studienfächer des Fachbereichs 4 am Campus Koblenz der Universität Koblenz-Landau zu evaluieren. Durch die Befragung der Studierenden kann somit eine Ergänzung zu der seit einiger Zeit durchgeführten Lehrveranstaltungsevaluation gebildet werden. Ziel dieser Arbeit ist es, das Meinungsbild im Fachbereich Informatik an der Universität Koblenz-Landau am Campus Koblenz zu ergründen. Anhand der Ergebnisse der Evaluation, welche im Wesentlichen von den Erfahrungen und Meinungen der Studierenden abhängig sind, können weiterführende Kenntnisse zur Verbesserung und Sicherung der Qualität von Studium und Lehre erlangt werden. Auf diese Weise erhält der Fachbereich Informatik den Stand des wahrgenommenen Profils nach außen und kann somit überprüfen, ob dieses mit den selbstgesetzten Zielvorstellungen übereinstimmt. Die Evaluation soll außerdem dazu beitragen, die eigenen Stärken und Schwächen hinsichtlich der Lehrveranstaltungen und Studiengänge zu erarbeiten sowie den Lehr- und Studien-betrieb transparenter zu gestalten. Durch diese Ergebnisse kann der Studienablauf optimiert und eine Basis für die Weiterentwicklung der Lehre geschaffen werden. Ebenfalls gilt es eventuelle Unterschiede in der Wahrnehmung der Studiensituation einzelner Studiengänge zu ermitteln, da durch verschiedene Ausrichtungen der Studierenden andere Meinungen hinsichtlich des Lehrbetriebs entstehen können. Des Weiteren gilt es dieses Meinungsbild auch innerhalb der Studiengänge zu differenzieren, damit die verschiedenen Abschlüsse, für welche die Studierenden eingeschrieben sind, herausgefiltert werden können. Ein weiterer Punkt den eine solche Evaluation mit sich führt, ist die Chance, die eigenen Kontrollmechanismen zu überprüfen und zu verbessern, damit Strategien entwickelt werden können, um die oben erwähnte Qualität der Lehre zu sichern. Somit soll neben der Darstellung der aktuellen Situation auch eine Handlungsempfehlung für den Fachbereich 4 erarbeitet werden. Die entstandene Umfrage soll so ausgelegt werden, damit weitere Befragungen im Sinne einer Panelforschung in Folgesemestern durchgeführt werden können. Hiermit soll festgestellt werden, ob sich im Laufe der Zeit Veränderungen zwischen den einzelnen Umfragen ergeben haben.
In recent years, traceability has been more and more universally accepted as being a key factor for the success of software development projects. However, the multitude of different, not well-integrated taxonomies, approaches and technologies impedes the application of traceability techniques in practice. This paper presents a comprehensive view on traceability, pertaining to the whole software development process. Based on graph technology, it derives a seamless approach which combines all activities related to traceability information, namely definition, recording, identification, maintenance, retrieval, and utilization in one single conceptual framework. The presented approach is validated in the context of the ReDSeeDS-project aiming at requirements-based software reuse.
Die Arbeit beschäftigt sich mit dem Einsatz moderner Grafikhardware (GPU) für die Visualisierung und Verarbeitung medizinischer Volumendaten. Die zunehmende Steigerung der Rechenleistung ermöglicht den Einsatz von Standardsystemen für Anwendungsgebiete, die bisher nur speziellen Workstations vorbehalten waren. Zusammen mit dem wesentlichen Vorteil von Grafikhardware Daten direkt anzeigen zu können, sind Verfahren wie visualisierungsgestütztes Berechnen ("visual computing") oder interaktives Steuern von Berechnungen ("computational steering") erst möglich geworden. Darauf wird anhand mehrerer Beispielanwendungen und umgesetzten Konzepten wie den "ray textures" im Detail eingegangen. Da die zu verarbeitenden und darzustellenden Datenmengen stetig ansteigen, ist aufgrund von Speicher- und Bandbreiteneinschränkungen eine kompakte Repräsentation der Daten notwendig. Während die Datenkompression selbst eingehend erforscht wurde, beschäftigt sich die vorliegende Arbeit mit Möglichkeiten, Berechnungen direkt auf den komprimierten Daten durchführen zu können. Dazu wurden verschiedene Algorithmenklassen identifiziert und in die Wavelet-Domäne übertragen. Mit Hilfe von speziellen Varianten der komprimierten Repräsentation ist eine effiziente Umsetzung grundlegender Bildverarbeitungsalgorithmen möglich und zeigt zugleich das Potential dieses Ansatzes auf. Aus technischer Sicht wurde im Laufe der Arbeit die GPU-basierte Programmierumgebung "Cascada" entwickelt. Sowohl die Einführung von objektorientierten Konzepten in die Shaderprogrammierung, als auch eine hierarchische Repräsentation von Berechnungs- und/oder Visualisierungsschritten vereinfacht den Einsatz von Grafikhardware ohne wesentliche Leistungseinbußen. Dies wird anhand verschiedener Implementationen in den jeweiligen Beiträgen und zwei klinischen Projekten im Bereich der Diagnoseunterstützung gezeigt. Hierbei geht es zum einen um die semi-automatische Segmentierung der Leber in niedrig aufgelösten MR-Datensätzen, zum anderen um Möglichkeiten zur Vermessung von abdominalen Aortenaneurysmen; jeweils unterstützt durch Grafikhardware. Darüber hinaus ermöglicht "cascada" auch die Erweiterung hinsichtlich aktueller Architekturen für den universellen Einsatz von Grafikhardware, sowie künftige Entwicklungen durch ein modulares Design.
Pose-Tracking
(2009)
Die bildbasierte automatische Bestimmung der Pose, d. h. der Position und Blickrichtung, einer Kamera in derWelt, ist eine relevante, aber immer noch unzureichend gelöste Aufgabe im Rechnersehen. In dem diesem Bericht zugrunde liegenden Projekt werden höhere markante Merkmale in den Bildern sicherer lokalisiert, sowie deren semantische Signifikanz vom Rechner bestimmt. Eine Posebestimmung wird durch eine Registrierung der elementaren Bestandteile dieser markanten Merkmale im Bild mit Merkmalen im 3-D-Modell erreicht. Dazu werden neue Algorithmen zur Detektion, Lokalisation und Registrierung der markanten Merkmale entwickelt bzw. vorhandene Algorithmen weiter verbessert. Modelle, wie sie aus der Rekonstruktion von Mehrfachansichten entstehen, werden durch weitere Semantik angereichert. Als Anwendungsszenario wird die Posebestimmung auf dem Campusgelände unter Verwendung von Bildern und einem semantischen CG-Modell des Campus gewählt. Die allgemeinen Verfahren werden an diesem Beispiel getestet und ihre Tragfähigkeit wird in Experimenten belegt. Im modularen System entstehen problemunabhängige Einzelbausteine zur Detektion markanter Merkmale und zur 3-D-Rekonstruktion und Posebestimmung aus Merkmalen, Punkten und Linien. Damit wird belegt, dass eine robuste Detektion markanter Merkmale möglich ist und zu einer effektiven Rekonstruktion und Posebestimmung auch in teilweise wenig strukturierten Außengebieten genutzt werden kann.
Die Entwicklung im Bereich der Videospiele generierte in den letzten Monaten durch innovative Konzepte und neue Steuerungsmöglichkeiten ein hohes Maß an Aufmerksamkeit. Einen Meilenstein setzte die Firma Nintendo R mit dem sogenannten WiiTM Balance BoardTM . Dies ist ein Eingabegerät in Form eines Brettes, auf das sich der Spieler stellen muss, um ein Spiel mittels seiner Körperbalance steuern zu können. Mit dieser Form der Steuerung konnten neue Spielkonzepte erstellt und umgesetzt werden. Dadurch wurden erstmals Personengruppen angesprochen, die zuvor wenig bis gar kein Interesse an Videospielen hatten. Die Computerspielebranche hingegen verfolgt weiter das Ziel eine möglichst reale Spielumgebung zu schaffen und hält an ihren gewöhnlichen Steuerungen mittels Tastatur, Maus und Joystick fest. Im Rahmen dieser Studienarbeit wurde ein 3D-Computerspiel entwickelt, welches das Konzept der Videospiele verfolgt und die Möglichkeit bietet, mittels eigener Körperbalance zu steuern.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
In dieser Arbeit wird ein zweigeteilter Regler für die Pfadverfolgung eines Modellfahrzeugs mit einachsigem Anhänger entwickelt. Darüber hinaus wird ein Beweis für die Stabilität und die Konvergenzeigenschaft der gefundenen Regelungsgesetze geliefert. Das Verfahren wird anschließend in die bestehende Steuersoftware des Versuchsfahrzeuges integriert und eine Testumgebung erstellt, um das Regelungsverfahren damit abschließend zu evaluieren.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
Das Wissen über die genaue Position und Lage eines unbemannten Luftfahrzeugs spielt während der Durchführung einer autonomen Mission eine dominante Rolle. Unbemannte Luftfahrzeuge sind daher mit einer Vielzahl an Sensoren ausgestattet. Jeder dieser Sensoren leistet einen Beitrag zu diesem Ziel, wobei ein Sensor entweder eine absolute oder eine relative Angabe über den derzeitigen Aufenthaltsort oder die Fluglage ermöglicht. Alle Sensoren werden zu einer Gesamtlösung verknüpft, der Navigationslösung. Das am häufigsten eingesetzte - und auch meistens einzige - Verfahren zur absoluten Positionsbestimmung ist die Satellitennavigation. Diese ist abhängig von einer direkten Sichtlinie der mitgeführten Empfangsantenne zu den Satelliten. Falls es zu einer Unterbrechung dieser Sichtlinie kommt, ist eine genaue, absolute Positionsangabe nicht mehr möglich. Die Navigationslösung hat somit nur noch Sensoren zur Verfügung, die eine relative Positions- bzw. Lageangabe ermöglichen. Hierzu gehören das mitgeführte Magnetometer und das Inertialmesssystem. Beide unterliegen dem Phänomen der Drift. Dieses bedeutet, dass die Genauigkeit der Positions- und Lageangabe bei einem Ausfall der Satellitennavigation mit fortschreitender Zeit zunehmend unzuverlässig wird. Um diese Drift in einem bestimmten Rahmen zu kompensieren, kann ein Bildsensor verwendet werden. Dieser ermöglicht eine bildbasierte Bewegungsschätzung und stellt somit einen zusätzlichen Sensor zur Messung von relativen Lage- und Positionsänderungen dar. Ziel der Arbeit ist es, ein Verfahren zur bildbasierten Bewegungsschätzung für einen unbemannten Helikopter zu entwickeln und zu evaluieren.
Die Idee des Displacement Mappings ist 30 Jahre alt und wurde im Laufe der Zeit immer weiterentwickelt, verbessert und realistischer. Die meisten Verfahren basieren auf der Simulation von Geometrie, d.h. das Displacement Mapping Verfahren rechnet auf speziellen Texturen, um den Eindruck von Tiefe zu verstärken. Echte Displacement Mapping Verfahren verändern tatsächlich die Geometrie, doch davon wurde in der Vergangenheit Abstand genommen, da die Berechnung auf der CPU zu aufwändig war bzw. das Ergebnis nicht den Aufwand rechtfertigte. Dazu mussten bisher die Punkte von der Applikation im geeigneten Detailgrad erzeugt werden. Die Verfahren der Geometrieerzeugung sind daher weniger performant. Außerdem können die texturbasierten Simulationsverfahren bereits blickwinkelabhängige Effekte, Selbstverschattung und auch Selbstverdeckungen darstellen. Als Nachteil sind die Randprobleme bei diesen Verfahren zu nennen. Dennoch hat Displacement Mapping mit diesen Verfahren zunehmend Einzug in die Spieleindustrie gehalten, für die es bisher zu rechenaufwändig war. Hier bieten die neusten Erweiterungen der GPU interessante Potentiale, da mit Geometry Shadern die Möglichkeit besteht, echte Geometry beschleunigt und adaptiv zu erzeugen. Ziel dieser Arbeit ist es verschiedene Verfahren für echtes Displacement Mapping mit dem Geometry Shader zu untersuchen. Dabei wird neue Geometrie aus einer Textur heraus erzeugt. Hierbei werden Polygone und Punkte generiert. In der Textur werden neben den Normalen noch die Höhenwerte im Alphawert gespeichert. Außerdem wird noch ein Verfahren untersucht, welches Volumeninformationen simuliert, um Überhänge und schwebende Objekte zu erzeugen.
Workflows und Logik
(2009)
In dieser Arbeit wurde gezeigt, wie die Netzdarstellung eines Workflows in eine aktionslogische, prädikatenlogische, transaktionslogische oder aktionslogische Formel umgeformt werden kann. Ebenso wurde der umgekehrte Weg beschrieben. So ist es jetzt möglich, Workflows auch mit Hilfe der verschiedenen Inferenztechniken der einzelnen Logiken zu untersuchen. Bei der Transformation wurden allerdings einige Einschränkungen getroffen. So wurde auf die Transformation von Quantoren sowie auf Zykel in den zu transformierenden Workflow-Netzen verzichtet. Außerdem wurden die möglichen Kantenlabels von pr/t-Netzen zur Umwandlung in eine prädikatenlogische Darstellung auf einzelne Tupel beschränkt.
Im Rahmen dieser Diplomarbeit wird ein Transaktionskonzept für die aktuelle Implementationsversion der TGraphenbibliothek JGraLab Carnotaurus umgesetzt. Nach einer grundlegenden Einführung in das Konzept der TGraphen werden die relevanten Implementationsdetails der TGraphenbibliothek erläutert. Anschließend erfolgt ein konzeptueller Entwurf, in dem die formalen Grundlagen des Transaktionskonzepts beschrieben werden. Das aus der Datenbankwelt bekannte ACID-Paradigma für Transaktionen dient dabei als wissenschaftliche Grundlage. In einem nächsten Schritt erfolgt der objektorientierte Feinentwurf der Integration des zu entwickelnden Transaktionskonzepts in das vorhandene Gesamtsystem, anhand dessen die Implementation durchgeführt wird. Eine Analyse und Bewertung des umgesetzten Transaktionskonzepts (vor allem im Hinblick auf den Speicherverbrauch und das Laufzeitverhalten) schließen die Arbeit ab.
In dieser Arbeit wird ein neuer Algorithmus zur Detektion von Räumen in Gebäudegrundrissen beschrieben. Der in dieser Arbeit vorgestellte Algorithmus liefert bei akzeptabler Laufzeit im Allgemeinen ein stabiles intuitiv erwartetes Resultat. Die ermittelte Einteilung eines Gebäudegrundrisses in Räume kann dazu verwendet werden, eine Identifikation räumlich zuzuordnen und erfüllt damit die in Kapitel 1 an den Algorithmus gestellten Anforderungen. In Kapitel 2 wird der aktuelle Stand der Wissenschaft durch relevante bisherige Lösungsansätze und Resultate beschrieben bevor in Kapitel 3 die Schritte des neu entwickelte Algorithmus theorisch und visuell im Detail vorgestellt werden. Dabei befasst sich Kapitel 3.1 mit grundlegenden Definitionen, Kapitel 3.2 mit der Beschreibung der einzelnen Schritte und Kapitel 3.3 mit der gewählten Implementationsform. Eine Übersicht über erzielte Ergebnisse und deren Aufwände liefert Kapitel 4. Neben guten Resultaten werden an dieser Stelle auch Zwischenergebnisse, Besonderheiten und Seiteneffekte diskutiert. Abschließend wird in Kapitel 5 eine Zusammenfassung der vorliegenden Arbeit (Kapitel 5.1) sowie ein Ausblick über mögliche Ansatzpunkte für Verbesserungen und Erweiterungen (Kapitel 5.2) präsentiert.
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Performanz von RIP-MTIfi
(2009)
Diese Diplomarbeit beschäftigt sich mit der Performanz von RIP-MTI, insbesondere mit der Performanz der Schleifenerkennung. Ziel der Arbeit ist es, die Zeitdauer der Schleifenerkennung von RIP-MTI zu untersuchen und Probleme, welche bei der Erkennung von Schleifen auftreten könen, aufzudecken und zu lösen.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
In dieser Masterarbeit wird der Frage nachgegangen, welche Konzepte des analytischen CRM Unternehmen brauchen und inwieweit sich diese von BI-Software realisieren lassen. Es soll dabei empirisch untersucht werden, welche Analyseinstrumente des analytischen CRM von Unternehmen benötigt werden und wie sie mit Techniken des Business Intelligences umgesetzt werden können. Zu der konzeptionellen Aufgabenstel-lung gehört die Entwicklung eines Konzeptes für die Realisierung von analytischem CRM mit Hilfe von Business Intelligence für die CRM-Software "GEDYS IntraWare 7".
Normen entstehen in jeder Gemeinschaft. Sie sind in der Lage, abseits von Gesetzbüchern und Vertragswerken, für ein rücksichtsvolles Zusammenleben zu sorgen. Dabei haben sie die Fähigkeit zur Anpassung und sind das Durchgangsprodukt eines sich ewig erneuernden Widerstreits zwischen erfahrungsbasierten Erwartungen, die das Handeln bestimmen und Rückmeldungen der Außenwelt, die zu neuen Erfahrungen werden. Gesetzestexte dagegen, die ursprünglich den Versuch darstellten, solche Normen mit der weitesten Verbreitung, festzuhalten und somit das Leben des Einzelnen zu vereinfachen, besitzen durch ihre Statik eine viel geringere Rückkopplung; werden darüber hinaus, sobald der Urzusammenhang mit Normen weitgehend vergessen ist, zum Spielball von Machtinteressen und entfremden sich so vom Normempfinden des Einzelmenschen. Für Normen gilt das "Panta rhei", welches voraussetzt, daß lebendige Einzelwesen ihre Träger sind. Der Versuch die Norm abzutrennen, bspw. durch Niederschrift muss also immer ein Versuch bleiben, der höchstens angenähert zum Erfolg führt. Nicht zuletzt wegen der Unschärfe die dadurch entsteht, daß obwohl wir von einer Norm sprechen, in jedem Einzelnen dem sie bekannt ist, doch wieder eine Abwandlung der generellen Norm existiert und bei ihm, auch nur auf den Zeitpunkt der Erhebung beschränkt, existiert. Somit ist die Simulation von Normentwicklung sicherlich eine schwierige Aufgabe, die allerdings bei Erfolg wichtige Aufschlüsse über das Menschenwesen in der Gesellschaft bringen kann. Wenn das Verständnis über Selbstregulierung dadurch verbessert werden kann, besteht die Hoffnung einen Impuls dafür zu geben, Selbstregulierung auch häufiger den Vortritt vor Regulierung zu lassen. Die Aufgabe, Normentwicklung zu simulieren, stellt sich das EMIL Projekt: "The main technological aim of the project is to construct a simulator for exploring and experimenting norm-innovation. The forecasted impact of the project is to contribute to the regulation of ecommunities by handing out a simulator for the emergence of new norms in complex social systems."1 "While the simulator will be designed as a general-purpose tool, some specific study cases will be selected as so to provide the necessary grounding parameters. Eine agentenbasierte Simulation, die für jeden Agenten über ein komplexes Gedächtnis von bereits gehaltenen Normen verfügt und Lernalgorithmen, die nach Interaktion einen Normenwandel einleiten, sollen das Ziel erreichbar machen. Die vorliegende Arbeit ist eine der ersten Implementationen mit EMIL und soll Impulse für eine Verbesserung der Simulationssoftware geben. Das hier vorgestellte Szenario basiert auf dem Verhalten von Mikrofinanzgruppen.
The thesis at hand evaluates Open Source Business Process Management (BPM) Systems in the context of the R4eGov1 Project. The provision of concepts and tools to support and enable interoperability in pan-European networks of pubic administrations is one of the major objectives that R4eGov is aiming at. Thereby a strong focus lies on the interoperability of cross-organizational processes from the viewpoint of modeling, execution and monitoring. BPM can increase the effectiveness and efficiency of cross-organizational processes by restructuring them towards the needs of the entities involved. BPM is dependent on BPM systems that combine technologies of process modeling, business process analysis and execution along with their integration into adequate runtime environments and rule engines. The evaluation that is performed within the thesis investigates how far BPM systems can support several requirements of interoperability that have been developed by the R4eGov project. It also targets at analyzing those BPM system according to generic requirements on BPM and software tools. The investigation is build upon common BPM theories and standards for modeling business processes. It describes the origin and interdependencies of BPM and Workflow Management (WfM), highlighting similarities and differences from the technological and historical perspective. Moreover, it introduces web service standards and technologies that are used to build service-oriented architectures allowing greater flexibility in BPM. In addition the thesis introduces methods and best practices to evaluate software tools. It contains an evaluation framework for BPM tools that has been based on the software product evaluation standard ISO/IEC 14598. The evaluation framework comprises the definition of an R4eGov scenario and a catalogue of criteria for evaluating a set of selected Open Source BPM systems. The definition of the catalogue of criteria is build upon generic requirements on BPM systems and those that are specifically to R4eGov. The chosen methods and the core elements of the evaluation framework will be applied to the selected BPM systems Intalio BPMS,NetBeans IDE, and JBoss jBPM. Finally the results of the applied R4eGov scenario and of the applied catalogue of criteria are being discussed by highlighting individual strengths and weaknesses of the systems.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Ontologies play an important role in knowledge representation for sharing information and collaboratively developing knowledge bases. They are changed, adapted and reused in different applications and domains resulting in multiple versions of an ontology. The comparison of different versions and the analysis of changes at a higher level of abstraction may be insightful to understand the changes that were applied to an ontology. While there is existing work on detecting (syntactical) differences and changes in ontologies, there is still a need in analyzing ontology changes at a higher level of abstraction like ontology evolution or refactoring pattern. In our approach we start from a classification of model refactoring patterns found in software engineering for identifying such refactoring patterns in OWL ontologies using DL reasoning to recognize these patterns.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
Wireshark und VNUML Im Rahmen dieser Studienarbeit sollen einige Netzwerk-Protokolle mit dem Protokollanalyser Wireshark beobachtet und der Umgang damit beschrieben werden. Wireshark ist ein Ableger von "Ethereal", einem der bekanntesten Protokoll-Analyser. Wireshark analysiert Netzwerkverkehr, zeichnet ihn auf und stellt ihn übersichtlich dar. Für die Simulation des Netzwerks wird VNUML verwendet. Da VNUML nur unter Linux verwendet werden kann, wird andLinux als virtuelle Maschine dazwischen geschaltet um auch in Windows arbeiten zu können.
Dieses Dokument schlägt ein Konzept für eine Personal Key Infrastruktur in iCity vor. Über ein Trust Center (TC) ausgestellte Zertiffkate gewährleisten einen sicheren Schlüsselaustausch mit nachweisbarer Authentisierung des Kommunikationspartners, Abhörsicherheit sowie Unverf älschtheit und Nachweisbarkeit der Nachrichten. Das gemeinsam vertrauensw ürdige TC muss während der Kommunikation nicht erreichbar sein. Es erhält lediglich öffentliche Informationen. Das Konzept stellt mehrere Sicherheitsstufen vor, die sichere Identiffkation und Anonymität unterschiedlich gewichten.
Opinion Mining
(2010)
Das Opinion Mining stellt eine Methode dar, mit der Meinungen aus dem WWW gefiltert und intelligent aufbereitet werden können, um Stimmungsanalysen zu einzelnen Produkten und Dienstleistungen zu erstellen. Opionion Mining bietet den Unternehmen somit eine innovative Möglichkeit, ihre Marketingkommmunikation planbarer und wirkungsvoller zu gestalten und ein deutlich erhöhtes Maß an Involvement und Relevanz innerhalb bestimmter Zielgruppen zu erreichen. Zunächst werden die theoretischen Grundlagen des Web 2.0 und relevanter Methoden der Business Intelligence erläutert. Die empirische Untersuchung bildet den Schwerpunkt der Arbeit. Auf die Entwicklung eines Vorgehensmodells folgt die praktische Anwendung dieses Modells auf ein Produkt. Die Ergebnisse werden im Review-Scan im Hinblick auf Forschung und Praxis ausgewertet und diskutiert.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
This minor thesis shows a way to optimise a generated oracle to achieve shorter runtimes. Shorter runtimes of test cases allows the execution of more test cases in the same time. The execution of more test cases leads to a higher confidence in the software-quality. Oracles can be derived from specifications. However specifications are used for different purposes and therefore are not necessarily executable. Even if the are executable it might be with only a high runtime. Those two facts come mostly from the use of quantifiers in the logic. If the quantifier-range is not bounded, respectively if the bounds are outside the target language-datatype-limits, the specification is too expressive to be exported into a program. Even if the bounds inside the used datatype-limits, the quantification is represented as a loop which leads to a runtime blowup, especially if quantifiers are nested. This work explains four different possibilities to reduce the execution time of the oracle by manipulating the quantified formular whereas this approach is only applicable if the quantified variables are of type Integer.
With the Multimedia Metadata Ontology (M3O), we have developed a sophisticated model for representing among others the annotation, decomposition, and provenance of multimedia metadata. The goal of the M3O is to integrate the existing metadata standards and metadata formats rather than replacing them. To this end, the M3O provides a scaffold needed to represent multimedia metadata. Being an abstract model for multimedia metadata, it is not straightforward how to use and specialize the M3O for concrete application requirements and existing metadata formats and metadata standards. In this paper, we present a step-by-step alignment method describing how to integrate and leverage existing multimedia metadata standards and metadata formats in the M3O in order to use them in a concrete application. We demonstrate our approach by integrating three existing metadata models: the Core Ontology on Multimedia (COMM), which is a formalization of the multimedia metadata standard MPEG-7, the Ontology for Media Resource of the W3C, and the widely known industry standard EXIF for image metadata
Die Studienarbeit analysiert mit Hilfe einer erweiterten Balancetheorie die Relationen des Roboters zu den Personen im Kamerabild und den Personen untereinander. Es wurde gezeigt, dass die Abstraktion der Balancetheorie auf eine konkrete Anwendung übertragen werden kann. Allerdings muss die Theorie erweitert und teilweise eingeschränkt werden, um sie flexibler, aber gleichzeitig passend zur Anwendung zu gestalten. Dadurch wird die theoretische Grundlage, auf der die Arbeit beruht, ebenfalls verändert. Damit diese Modifikationen nicht den Rahmen der psychologischen Grundlage verlassen, müssen sie wiederum mit psychologischen Mitteln untersucht werden. Das würde allerdings den Umfang dieser Arbeit überschreiten, aber bietet ein Ansatz für eine interdisziplinäre Zusammenarbeit der Psychologie und Robotik. Die Interaktion und das Verhalten der Maschinen nach menschlicher Vorlage zu gestalten, ist für beide Disziplinen von Interesse. Im Kontext der Entwicklung einer ausreichenden Interaktion zwischen der Maschine und dem Menschen, wäre es interessant zu erforschen, welche sozialen Merkmale detektiert werden müssten, zum Beispiel im Spektrum der Mimik. Darüberhinaus ermöglicht die Recognize-Pipeline ein Ansatz, die Interaktion über das Kamerabild hinaus zu verfolgen. Dadurch kann der Roboter das Gesicht mit vergangenen Interaktionen assoziieren und dem entsprechend agieren. Allerdings bedarf die Pipeline-Struktur weiterer Arbeit. So werden bestehende Datenbanken über ein Gesicht nicht mit neuen Bildern erweitert, so fern sie notwendig sind. Auch kann keine automatische Korrektur erfolgen, falls fehlerhafte Informationen in die Datenbank gelangen. So kann es vorkommen, dass das selbe Gesicht zwei unterschiedliche IDs erhält, wenn das Gesicht nicht wiedererkannt wird. Auch können sehr ähnliche Gesichter zusammenfallen zu einer ID. Solche Fehler müssten für eine stabile Anwendung selbständig korrigierbar sein.
Bislang wurde VNUML (Virtual Network User Mode Linux) innerhalb der AG Rechnernetze der Uni Koblenz dazu verwendet, um die eigene Protokollerweiterung zu RIP, RIP/MIT (RIP with minimal topology information), auf Stärken und Schwächen zu testen. Hauptsächlich wurden dafür spezielle Testszenarien verwendet, um zu untersuchen, ob ein Count-to-Infinity-Problem (CTI) erfolgreich verhindert wird und wie schnell das Netz nach Ausfall einer Route konvergiert. Diese Arbeit wird untersuchen, ob die MTI-Erweiterung auch Performance-Vorteile in größeren Netzwerken bietet, ob sich der Einsatz des Script-Tools EDIV (spanisch: Escenarios DIstribuidos con VNUML, englisch: Distributed Scenarios using VNUML) aufgrund der besseren Skalierbarkeit lohnt und ob sich durch die Verteilung eines XML-Szenarios auf mehrere Rechner signifikant auf die Konvergenzzeit auswirkt. Dazu werden neben Simulationen auch Testszenarien entworfen und umfangreichen Tests unterzogen, um Erkenntnisse zur Effizienz und Skalierbarkeit des Distance Vector Routing Protokolls RIP/MTI zu ziehen.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
Die vorliegende Arbeit stellt eine Methode für die korpusbasierte Analyse der Verwendung von Softwarebibliotheken in Java-Programmen vor. Die meisten größeren Softwareprojekte verwenden Softwarebibliotheken, die als Schnittstelle für den Programmierer sogenannte APIs (application programming interfaces) bereitstellen. Um den Umstieg von einer solchen API auf eine andere zu unterstützen, strebt man Werkzeuge zur automatisierten API-Migration an. Zur Entwicklung solcher Werkzeuge fehlen allerdings noch Basisdaten. Statistiken und Beobachtungen zur Verwendung von APIs in der Praxis wurden bisher nur mit sehr kleinen Korpora von Projekten und APIs durchgeführt. Wir stellen in dieser Arbeit daher eine Analysemethode vor, die für Messungen an großen Korpora geeignet ist. Hierzu erzeugen wir zunächst einen Korpus von auf SourceForge gehosteten Open-Source-Projekten sowie einen Korpus von Softwarebibliotheken. In der Folge werden alle Projekte des Korpus compiliert, wobei ein Compiler-Plugin für den javac detaillierte Informationen über jede einzelne Methode liefert, die der Compiler erstellt. Diese Informationen werden in einer Datenbank gespeichert und analysiert.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.