004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (162)
- Studienarbeit (136)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (81)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (543)
- Englisch (201)
- Mehrsprachig (3)
Volltext vorhanden
- ja (747) (entfernen)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Robotik (10)
- Computergraphik (9)
- Computersimulation (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
Institut
- Fachbereich 4 (270)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (48)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
In dieser Studienarbeit werden neben den Grundlagen der Web Services, Komponenten und APIs zur Realisierung des Sticky Loggings aufgezeigt. Es wird ein Szenario zum Testen des Sticky Loggings beschrieben und als Web Services implementiert. Der Sticky-Logging-Formalismus wird erklärt und es wird eine API zur Erstellung der StickyLogs implementiert. Die StickyLogs werden innerhalb des SOAP-Attachments der SOAP-Nachrichten zwischen den Web Services ausgetauscht. Dazu wird eine Realisierung mit einem Messagehandler unter JAX-WS programmiert und erläutert.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
In der vorliegenden Studienarbeit wird eine OpenGL-Applikation vorgestellt, die Geometrie-Shader in einem Feedback-Loop einsetzt, um auf der GPU Geometrie zu erzeugen. Dargelegt werden die erforderlichen Grundlagen Geometrie-Shader und Transform Feedback betreffend, die Umsetzung der Anwendung und die eingesetzten GLSL-Shader.
Im Rahmen dieser Diplomarbeit wurden Texte untersucht, die von Grundschulkindern unter bestimmten Bedingungen und Voraussetzungen geschrieben wurden. Die Texte entstanden im Rahmen des Projektes VERA (Vergleichsarbeiten in der Grundschule), das von Prof. Dr. Andreas Helmke und Juniorprof. Dr. Ingmar Hosenfeld durchgeführt wird. Es wurden circa 1000 handgeschriebene Geschichten transliteriert und teilweise korrigiert. Nähere Informationen zur Entstehung und Bearbeitung der Texte sind in Kapitel 4 zu finden. Für diese Diplomarbeit wurden die Texte mit dem Saarbrücker Message Extraction System (SMES), der am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) entwickelt wurde, verarbeitet. Zusätzlich wurden die Texte einer Analyse von Hand unterzogen, um eine Aussage über die Qualität von SMES machen zu können. Die vorliegende Diplomarbeitbeschreibt die Konzeption des Parsingansatzes und eine durchgeführte Evaluation. Außerdem erden Vorschläge für einfache und sinnvolle Verbesserungen und Änderungen gemacht, die für den gegebenen Korpus sinnvoll erscheinen. Ziel dieser Arbeit ist es, zu zeigen, welche Arbeits- und Verarbeitungsschritte notwendig und sinnvoll sind, um anschließend eine Aussage darüber treffen zu können, welche computerlinguistischen Methoden sich eignen, um die Entscheidung treffen zu können, welche Module man entwickeln kann, um den Lehrern und Schülern eine adäquate Lernhilfe zur Verfügung stellen zu können. Die Herausforderung bestand darin, zunächst ein linguistisches Mittel zu finden, das in Bezug auf die vorliegende Textart als am besten geeignet erschien und diese Wahl zu begründen. Anschließend galt es die Arbeitsweise und die Resultate der getroffenen Wahl genau zu untersuchen und heraus zu finden, welche einfachen Modifikationen man in das bereits bestehende System einbetten kann, um das Ergebnis weiter zu verbessern.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
In dieser Dissertation wird eine Verfahrensweise für die formale Spezifikation und Verifikation von Benutzerschnittstellen unter Sicherheitsaspekten vorgestellt. Mit dieser Verfahrensweise können beweisbar sichere Benutzerschnittstellen realisiert werden. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird eine Methodologie für die formale Beschreibung von Mensch-Maschine-Interaktion entwickelt. Im zweiten Teil werden gängige Computersicherheitskonzepte für die Mensch-Maschine-Interaktion angepasst und mit den im ersten Teil entwickelten Methoden formalisiert. Dabei wird ein generisches formales Modell von Mensch-Maschine-Interaktion erstellt. Im dritten Teil wird die Methodologie, die in den ersten beiden Teilen entwickelt wurde, an einem sicheren Email-Client als exemplarischen Anwendungsprogramm demonstriert.
Enterprise Resource Planning Systeme (ERP) bilden für viele Unternehmen eine wertvolle informationstechnische Unterstützung in der täglichen Wertschöpfung. Sie repräsentieren eine Klasse von hoch-integrierten und standardisierten betrieblichen Anwendungssystemen, deren Nutzenpotential für ein Unternehmen wettbewerbsentscheidend sein kann. Trotzdem muss eine Einführung von den verantwortlichen CEOs und CIOs sorgsam abgewogen werden, denn zu voreilige oder schlecht geplante ERPProjekte können ein erhebliches finanzielles Risiko darstellen, so dass am Ende sogar die Existenz eines Unternehmens bedroht ist. Bereits bestehende Systeme können aufgrund von einer unzureichenden Integrationsfähigkeit oder veralteten Technologie zusätzliche Wartungskosten verursachen, die in keinem Verhältnis zu den initialen Lizenzkosten mehr stehen. Wie kann man nun eine Vorstellung davon erhalten, welches ERP-System für ein Unternehmen geeignet ist? Gibt es bereits Standardpakete, deren Wartung und Pflege deutlich einfacher ist? Oder ist eine Mietlösung ein zu gewagtes Risiko? Diese Fragen haben den Anstoß zu der folgenden Arbeit gegeben. Die Aufgabe besteht darin, ein möglichst umfassendes Bild der kurz- bis mittelfristigen Zukunft des deutschen ERP-Marktes zu zeichnen. Dafür wurden in einer längeren Zeitperiode zahlreiche in Deutschland tätige Softwarehäuser hinsichtlich wichtiger Aspekte ihres ERPSystems befragt und die Antworten ausgewertet. Welchen Herausforderungen und welchen Anforderungen sich deutsche Anbieter in den kommenden drei bis fünf Jahren stellen müssen, werden die folgenden Kapitel erläutern.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Program slicing
(2008)
Im Rahmen dieser Diplomarbeit wird das Dienstmodell für Program Slicing, welches von Hannes Schwarz vorgestellt wurde, zu einem komponentenbasierten Referenztool weiterentwickelt und implementiert. Dieses Referenztool verwendet zum Slicen ein Referenzschema für Programmiersprachen, welches ebenfalls in dieser Arbeit eingeführt wird. Die hier eingesetzten Slicing-Verfahren basieren auf diesem Referenzschema. Somit kann das Referenztool als Grundlage zum Slicen von Quellcode in beliebigen Programmiersprachen genutzt werden, wenn das Referenzschema vorab an die Gegebenheiten dieser Sprachen angepasst wird. Exemplarisch wird in dieser Diplomarbeit ein Program Slicing Tool für C-Quellcode entwickelt. Dieses Slicing Tool basiert auf dem Referenztool, in dem es die einzelnen Komponenten des Referenztools bei Bedarf spezialisiert oder in der ursprünglichen Form übernimmt. Damit das Program Slicing Tool als Referenz gelten kann, wird in dieser Arbeit eine einfache, erweiterbare und komponentenbasierte Architektur entwickelt. Diese entsteht durch den Einsatz aktueller Prinzipien der Softwaretechnik.
Im Rahmen dieser Studienarbeit wurde ein Faktenextraktor für Java-Quelltexte entwickelt. Der Javaextraktor generiert eine TGraph-Repräsentation der Quelltexte eines in Java implementierten Softwareprojekts. Dieser TGraph ist dann durch dieWerkzeuge des Gupro-Projekts weiter verarbeitbar. Der Javaextraktor kann Javaquelltexte bis einschließlich Javaversion 6 verarbeiten. Dazu wurde ein Werkzeug gefunden, welches den Parsingvorgang übernimmt, so dass diese Funktion nicht selbst implementiert werden musste. Zusätzlich wurde ein Javametamodell und entsprechendes Schema für den TGraph entwickelt. Die Knoten- und Kantentypen des Metamodells konnten automatisiert mit JGraLab aus dem Schema erzeugt werden.
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Die Bachelorarbeit über das Thema "Geld in PC-Spielen - Inflation in World of Warcraft" beschäftigt sich mit der Frage, ob es Inflation in der virtuellen Spielumgebung von World of Warcraft gibt und ob diese Entwicklung auf vergleichbaren Ursachen der realen Welt beruht. World of Warcraft ist mit 8 Millionen Spielern weltweit das bisher erfolgreichste Multiplayer Onlinespiel und wurde deshalb als Betrachtungsgegenstand ausgewählt.
Seit Menschengedenken stellen wir uns die Frage, was in der Zukunft schon bald möglich sein könnte. Mit der Bereitstellung von breitbandfähigen Internetanschlüssen für nahezu jeden Haushalt in der Bundesrepublik Deutschland hielten die virtuellen Welten Einzug in unser Leben und ließen uns schon bald wissen, wie realitätsnah etwas "Nicht-Greifbares" sein kann. Die virtuelle Welt und die reale Welt verschmelzen immer mehr miteinander, bieten sie uns doch sogar die Möglichkeit, unseren Lebensunterhalt durch das Abtauchen in ein "zweites Leben" zu bestreiten. Diese Arbeit beschäftigt sich mit den drei derzeit aktuellen virtuellen Welten von "World of Warcraft", "Second Life" und "Habbo Hotel", ihres Zeichens alles PC-Spiele der neueren Art. Ferner soll der Frage nachgegangen werden, inwieweit es in virtuellen Welten eine übergeordnete Instanz gibt, deren Aktivitäten und Funktionen an unseren realen Staat erinnern lassen.
Personenverfolgungssysteme bestehen oft aus teurer und meist an Personen befestigter Trackinghardware, die die Bewegungsfreiheit der Personen deutlich einschränkt. Durch die in den letzten Jahrzehnten angestiegene Rechenleistung der Computersysteme ist es möglich, Bilddaten von digitalen Video-, Foto- oder Webkameras in Echtzeit auszuwerten. Dadurch erschließen sich neue Möglichkeiten, die eine Verfolgung von Personen auch ohne die störrige Trackinghardware erlauben. In dieser Arbeit soll ein System zum Verfolgen von Personen auschließlich unter Zuhilfenahme einer Videokamera und eines Computers, also ohne Marker, entwickelt werden.
Die Siedlungsgeschichte im Rhein-Mosel-Dreieck reicht zurück bis in die römische Zeit. Entlang der beiden großen Flüsse finden sich zahlreiche Beispiele historischer Architektur. In diese Kategorie lässt sich auch die ehemalige Burganlage im Kondertal einordnen, die sich auf dem Nordwest-Ausläufer des Hinterberges befindet. Um eine genauere Vorstellung der Burganlage zu erhalten, sollte ein Computermodell erstellt werden. Die praktische Umsetzung dieses Modells ist Thema der vorliegenden Studienarbeit. Von der Erstellung eines "einfachen 3D-Modells" mittels einer dazu mächtigen Software kam man schnell ab. Stattdessen sollte das Ziel der Arbeit ein Programm sein, dass es dem Benutzer ermöglicht die Burganlage interaktiv aufzubauen und in beliebiger Form zu verändern.
In dieser Arbeit wurden insgesamt fünf verwandte, aber variante Definitionen der Hermite-Normalform vorgestellt, angefangen bei der ursprünglichen Version von Charles Hermite. Anschließend wurden vier Basisalgorithmen zur Berechnung der Hermite-Normalform ganzzahliger Matrizen im Detail und anhand von vollständigen Beispielen präsentiert. Hierbei wurde vor allem Wert darauf gelegt, linear-algebraische Grundlagen wie beispielsweise die Verwendung von Permutationsmatrizen für unimodulare Spaltenoperationen verständlich zu vermitteln.
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
This volume contains those research papers presented at the Second International Conference on Tests and Proofs (TAP 2008) that were not included in the main conference proceedings. TAP was the second conference devoted to the convergence of proofs and tests. It combines ideas from both areas for the advancement of software quality. To prove the correctness of a program is to demonstrate, through impeccable mathematical techniques, that it has no bugs; to test a program is to run it with the expectation of discovering bugs. On the surface, the two techniques seem contradictory: if you have proved your program, it is fruitless to comb it for bugs; and if you are testing it, that is surely a sign that you have given up on any hope of proving its correctness. Accordingly, proofs and tests have, since the onset of software engineering research, been pursued by distinct communities using rather different techniques and tools. And yet the development of both approaches leads to the discovery of common issues and to the realization that each may need the other. The emergence of model checking has been one of the first signs that contradiction may yield to complementarity, but in the past few years an increasing number of research efforts have encountered the need for combining proofs and tests, dropping earlier dogmatic views of their incompatibility and taking instead the best of what each of these software engineering domains has to offer. The first TAP conference (held at ETH Zurich in February 2007) was an attempt to provide a forum for the cross-fertilization of ideas and approaches from the testing and proving communities. For the 2008 edition we found the Monash University Prato Centre near Florence to be an ideal place providing a stimulating environment. We wish to sincerely thank all the authors who submitted their work for consideration. And we would like to thank the Program Committee members as well as additional referees for their great effort and professional work in the review and selection process. Their names are listed on the following pages. In addition to the contributed papers, the program included three excellent keynote talks. We are grateful to Michael Hennell (LDRA Ltd., Cheshire, UK), Orna Kupferman (Hebrew University, Israel), and Elaine Weyuker (AT&T Labs Inc., USA) for accepting the invitation to address the conference. Two very interesting tutorials were part of TAP 2008: "Parameterized Unit Testing with Pex" (J. de Halleux, N. Tillmann) and "Integrating Verification and Testing of Object-Oriented Software" (C. Engel, C. Gladisch, V. Klebanov, and P. Rümmer). We would like to express our thanks to the tutorial presenters for their contribution. It was a team effort that made the conference so successful. We are grateful to the Conference Chair and the Steering Committee members for their support. And we particularly thank Christoph Gladisch, Beate Körner, and Philipp Rümmer for their hard work and help in making the conference a success. In addition, we gratefully acknowledge the generous support of Microsoft Research Redmond, who financed an invited speaker.
The University of Koblenz-Landau would like to apply for participation in the RoboCup Mixed Reality League in Suzhou, China 2008. Our team is composed of ten team members and two supervisors. All members are graduate students of Computational Visualistics. Our supervisors are Ph.D. candidates currently researching in the working groups of artificial intelligence and computer graphics.
Computers and especially computer networks have become an important part of our everyday life. Almost every device we use is equipped with a computer or microcontroller. Recent technology has even boosted this development by miniaturization of the size of microcontrollers. These are used to either process or collect data. Miniature senors may sense and collect huge amounts of information coming from nature, either from environment or from our own bodies. To process and distribute the data of these sensors, wireless sensor networks (WSN) have been developed in the last couple of years. Several microcontrollers are connected over a wireless connection and are able to collect, transmit and process data for various applications. Today, there are several WSN applications available, such as environment monitoring, rescue operations, habitat monitoring and smart home applications. The research group of Prof. Elaine Lawrence at the University of Technology, Sydney (UTS) is focusing on mobile health care with WSN. Small sensors are used to collect vital data. This data is sent over the network to be processed at a central device such as computer, laptop or handheld device. The research group has developed several prototypes of mobile health care. This thesis will deal with enhancing and improving the latest prototype based on CodeBlue, a hardware and software framework for medical care.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
IT-Sicherheitsmodelle
(2008)
Es wird erklärt, was ein Beschreibungsmodell ist, wie IT-Sicherheitsmodelle grundsätzlich aufgebaut sind und welchem Zweck sie dienen. Zur Illustration werden vier verschiedene IT-Sicherheitsmodelle vorgestellt, die historisch zu unterschiedlichen Zeiten entstanden sind. Sie passen zu vier verschiedenen typischen Anwendungsumgebungen und charakterisieren die zugehörigen Sicherheitsanforderungen. Vorgestellt werden das Bell-LaPadula-Modell zum Vertraulichkeitsschutz in hierarchischen Institutionen, das Clark-Wilson-Modell zum Integri-tätsschutz von Geschäftsanwendungen, das Chinese-Wall-Modell zum Konkurrentenschutz von Unternehmen und das Gleichgewichtsmodell zum Schutz verbindlichen Handelns im offenen Internet.
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Weltweit kann im letzten Jahrzehnt auf eine rasch zunehmende Akzeptanz des Internets als Informationsplattform zurückgeblickt werden. Grundlegende Änderungen fanden sowohl im privaten als auch im öffentlichen Sektor statt. Im Zuge dessen wurde die aktive Beteiligung von Bürgern in politische Meinungsbildungsprozesse mehr und mehr elektronisch unterstützt. Die Erwartungen an die neue Technologie steigerten sich in die Annahme, dass Informations- und Kommunikationstechnologien (IKT) die Bürgerbeteiligung verbessern und die Politikverdrossenheit mindern können. Aus diesen Erwartungen entwickelten sich einige E-Partizipationsprojekte in Deutschland. Außerdem wurde die "Initiative eParticipation" ins Leben gerufen, die in Bezug auf E-Partizipation Politik und Verwaltungen stark anregte, den Entscheidungsprozess mit Hilfe von internetgestützten Beteiligungspraktiken zu stärken. Diese Arbeit besteht aus zwei Hauptteilen. Im ersten Teil werden Definitionen der kritischen Begriffe präsentiert. Außerdem wird die Position von E-Partizipation innerhalb der Dimension des E-Business aufgezeigt. Um E-Partizipation zu erläutern, werden zuerst Grundlagen der klassischen Bürgerbeteiligung erklärt. Es wird gezeigt, dass sich auch die klassische Bürgerbeteiligung in einem Veränderungsprozess befindet, dessen Ursache nicht nur der Einsatz von IKT ist. Nachfolgend wird ein Rahmenwerk präsentiert, welches das Spektrum von E-Partizipation charakterisiert. Die Europäische Union fördert die Umsetzung von E-Partizipation. Koblenz soll da keine Ausnahme bilden. Aber wie ist die momentane Situation in Koblenz? Um diese Frage zu beantworten wird der gegenwärtige Zustand untersucht. Dazu wurde eine Umfrage unter den Bürgern der Stadt entwickelt, durchgeführt und ausgewertet. Dies ist der zweite Hauptteil dieser Arbeit.
Die Erstellung räumlicher Abbilder aus planaren Ansichten gewinnt immer mehr Bedeutung in der modernen Medizintechnik. 3D-Rekonstruktionen haben wesentlich zur besseren Detektion,wie auch zu Optimierung und Innovation in der Diagnostik und Behandlungsmethodik bestimmter Krankheitsbilder beigetragen. Durch die Verfahren der Bildverarbeitung ist es möglich, aus Bildsequenzen eine 3D-Abbildung der gefilmten Szene zu erstellen. Ziel dieser Diplomarbeit soll es sein, zu untersuchen, inwieweit sich aus der Aufnahmetechnik aus einer Reihe unkalibrierter Endoskopiebilder weitere Rückschlüsse über die Oberflächenbeschaffenheit des betrachteten Gewebes ziehen lassen. Hierbei wird das Phänomen zugrundegelegt, daß bei der Aufnahme der Bilder Glanzlichter auftreten, wenn die Beleuchtung am Kamerakopf orthogonal zur Gewebeoberfläche auftrifft. Diese Glanzlichter geben daher implizit Aufschluss über die Oberflächenorientierung des Gewebes. Aufgabe ist es nun, diese Glanzlichter in einer Reihe von unkalibrierten Endoskopieaufnahmen zu finden, die Bilder aus der Sequenz einander zuzuordnen, also Korrespondenzen zwischen den Bildern zu finden, und unter Einbeziehung der Kamerageometrie Rückschlüsse auf die Gewebeoberfläche zu ziehen. Zuerst müssen hierfür die Glanzlichter in den Einzelbildern der Sequenz gefunden werden. Dazu wird ein Verfahren verwendet, welches die Glanzlichter durch eine Zerlegung des HSV-Farbraums detektiert und deren Mittelpunkt errechnet. Um die Kamerageometrie zu schätzen, werden mihilfe eines Punktverfolgers Punktkorrespondenzen zwischen den Einzelbildern erstellt, anhand derer sich die Fundamentalmatrix durch RANSAC errechnen läßt. Unter Anwendung eines Autokalibrierungsverfahrens werden aus den geschätzten Fundamentalmatrizen dann in einem abschließenden Schritt die internen Kameraparameter ermittelt. So sollte möglich sein, die Glanzlichter durch eine Sequenz von Bildern zu verfolgen und die Oberflächennormalen einem Referenzbild zuzuordnen.
In dieser Arbeit wurden effektive und flexible Ansätze zur Erstellung von Shaderprogrammen für grafikkartenbasiertes Volumenrendering untersucht sowie ein Framework mit diesem Einsatzzweck konzipiert und prototypisch umgesetzt. Dazu wurden zunächst Ansätze zur Metaprogrammierung von Shadern vorgestellt, die Programmiersprachen für Shader um zusätzliche Möglichkeiten zur Kapselung von Code erweitern. Eine Umfrage zu Anforderungen an Volumenrendering bei MEVIS zeigte, dass dort ein Shaderframework für Volumenrendering ein Expertenwerkzeug wäre.Der Analyseteil stellte die zentralen Anforderungen an das zu erstellende Framework vor: Erstellung von Shadern des Volumenrenderers mittels Rapid Prototyping, modularer Aufbau der Shaderprogramme, Eignung für verschiedene Volumenrendering-Algorithmen und die Möglichkeit detaillierter Anpassungen am Volumenrendering-Shader, um für den Einsatz durch Experten geeignet zu sein.
Im Rahmen der Studienarbeit wurde ein webbasiertes Informationssystem für die neuen Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz-Landau entwickelt. Dieses System dient i.A. der Visualisierung und der (Online)-Editierung des Modulhandbuchs. Die Studienarbeit selbst beschreibt die Vorgehensweise bei der Systemumsetzung. Sie beschreibt die Phasen der Anforderungserhebung, der Modellierung, der Implementierung und des Testens.
Öffentliche elektronische Beschaffung (eProcurement), bzw. strategischer elektronischer Einkauf (eSourcing), sind mit hoher Wahrscheinlichkeit Thema sobald eGovernment Experten aufeinander treffen. So ist es nicht überraschend, dass eProcurement im aktuellen Aktionsplan der EU als "high-impact service" eingestuft wurde. Dies lässt sich zum Großteil durch den großen Einfluss vom öffentlichen Einkauf auf die Staatskasse erklären. So macht eProcurement in der Regel bis zu 20% des BIP aus und beherbergt somit ein enormes Einsparpotenzial. Dieses Potenzial liegt zum Teil im gemeinsamen Europäischen Wirtschaftsraum, da effizientes länderübergreifendes eSourcing neue Möglichkeiten für Einkäufer sowie Lieferanten eröffnen kann. Um diese Möglichkeiten ausschöpfen zu können, müssen Prozesse und Tools in der Lage sein, miteinander zu kommunizieren, sich aufeinander abzustimmen oder transferierbar sein. In einem Wort, sie müssen interoperabel sein. In vielen wichtigen Bereichen ist Interoperabilität sehr weit fortgeschritten, in anderen hingegen muss noch viel verändert werden. Daher ist es von wesentlicher Bedeutung Interoperabilitätsanforderungen zu definieren, sowie den aktuellen Forschungs- und Entwicklungsstand zu evaluieren.
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
CAMPUS NEWS - artificial intelligence methods combined for an intelligent information network
(2008)
In this paper we describe a network for distributing personalised information with the usage of artificial intelligence methods. Reception of this information should be possible with everyday mobile equipment. Intelligent filtering and spam protection aim at integrating this technology into our environment. Information on the system architecture and usage of the installation are also presented.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
In dieser Studienarbeit wurde ein Algorithmus vorgestellt, um sich mit einem Roboter in unbekanntem Gebiet zu lokalisieren und gleichzeitig eine Karte von der Umgebung zu erstellen. Die Lokalisation des Roboters geschieht auf 2D Ebene und errechnet die (x, y, θ)T Position des Roboters zu jedem Zeitpunt t inkrementell. Der Algorithmus baut auf dem FastSLAM 2.0 Algorithmus auf und wurde abgeändert, um eine möglichst genaue Lokalisation in Gebäuden zu ermöglichen. Hierfür wurden mehrere verschieden Arten von möglichen Landmarken untersucht, verglichen und kombiniert. Schwerpunkt dieser Studienarbeit war das Einarbeiten in das Extended Kalman-Filter und die Selektion von Landmarken, die für den Einsatz in Gebäuden geeignet sind.
Simulation mit VNUML
(2008)
Diese Studienarbeit soll als Einführung in das Thema Netzwerksimulation dienen und unter anderem auch als Einstiegs-Referenz für zukünftige Besucher der Rechnernetze-Veranstaltungen an der Universität Koblenz nutzbar sein. Die Ausarbeitung beginnt mit den Grundlagen zu UML und VNUML und beschreibt dann die Installation, Konfiguration und das Arbeiten mit dem Netzwerksimulator sowie oft genutzter Tools. Im Anschluss daran werden konkrete Anwendungsfelder vorgestellt: der simulierte Einsatz des Paketfilter iptables zur Realisierung von Firewalls und NAT, verschiedene Netzwerkdienste und zuguterletzt simuliertes Routing mit der quagga-Suite.
Das Forschungsprojekt Bildanalyse zur Ornamentklassifikation hat es sich zur Aufgabe gemacht, ornamentale Strukturen in Bildern computergestützt zu lokalisieren, analysieren und klassifizieren. Grundlage des Projekts bildet eine umfangreiche Bilddatenbank, deren Abbildungen manuell vorsortiert sind. Durch Kombinationen mit Methoden der Bildverabeitung und der Verwendung von Wissensdatenbanken (Knowledge Databases) soll diese Kategorisierung weiter verfeinert werden. Sämtliche Bilder durchlaufen bis zum Prozess der Ornamentklassifikation mehrere Vorverarbeitungsschritte. Beginnend mit einem Normalisierungsprozess, bei dem das Bild u. a. entzerrt und entrauscht wird, werden im Anschluss Interessensregionen selektiert. Diese Regionen bilden die Grundlage für das spätere Lokalisieren der Ornamente. Aus ihnen werden mit unterschiedlichen Verfahren Merkmale extrahiert, die wiederum in der Datenbank gespeichert werden. In dieser Arbeit wurde ein weiteres solches Verfahren implementiert und auf seine mögliche Verwendung in dem Projekt untersucht.
Die Integration von GPS-Empfängern in massenmarkttaugliche Endgeräte führt zu einer Vielfalt neuer Anwendungsmöglichkeiten. Gerade in der Spieleentwicklung eröffnen sich durch diese Erweiterung um ortsbezogene Informationen bisher wenig genutzte Ansätze, da die übliche statische Spielwelt um die reale Umgebung ergänzt oder durch sie ersetzt wird. Eine damit einhergehende Steigerung des Spielerlebnisses bietet einen Vorteil gegenüber gängigen Spielen und somit Marktchancen. Die prototypische Umsetzung soll weiterhin dazu dienen, die technischen Grundlagen für weitere Anwendungen zu schaffen. Beispiele hierfür sind Informationssysteme auf Veranstaltungen oder Navigationshilfen. Die zugrundeliegende, auf ein Geoinformationssystem aufbauende, Infrastruktur dient auch in diesen Fällen der sinnvollen Erweiterung der Anwendung. Weiterhin erfordert die Nutzung mobiler netzwerkbasierender Anwendungen die bei mobiler Datenkommunikation auftretenden Verbindungsschwierigkeiten zu berücksichtigen. Aus diesem Grund beschäftigt sich diese Arbeit mit der Behandlung dieser Probleme.
Große Gebiete lassen sich auf Grund von Schattenbildung und begrenzter Scanreichweite nicht mit einem einzigen 3D-Scan aufnehmen. Um konsistente dreidimensionale Karten dieses Gebietes zu erzeugen müssen also mehrere Scans zusammengefügt werden. Soll dieses Matchen der Scans automatisch geschehen, so kann es wegen fehlerhaften Translations- und Rotationsdaten, die die unterschiedlichen Positionen der Scans beschreiben,zu inkonsistenten Karten kommen. Um dies zu vermeiden wird in dieser Arbeit ein schneller Iterativ Closest Points Algorithmus implementiert, der versucht, Fehler in diesen sechs Freiheitsgraden zu korrigieren. Das Verfahren soll im Rahmen dieser Arbeit in die schon vorhandene Software unseres Roboters eingebunden werden.
GreQL-Script
(2008)
Im Rahmen dieser Arbeit wird eine Scriptsprache entworfen und ein Interpreter für diese implementiert. Sie ist der Nachfolger der von Bernt Kullbach entwickelten Scriptsprache Command Line GreQL (CLG) und soll die Arbeit mit TGraphen und mit der von Katrin Marchewka in ihrer Diplomarbeit beschriebenen Graphanfragesprache Graph Repository Query Language 2 (GReQL 2) vereinfachen.
Der Zwang zur Entwicklung immer neuer Technologien hat den Entwicklungsaufwand vieler Spiele enorm in die Höhe getriebenen. Aufwändigere Grafiken und Spiele-Engines erfordern mehr Künstler, Grafiker, Designer und Programmierer, weshalb die Teams immer größer werden. Bereits jetzt liegt die Entwicklungszeit für einen Ego-Shooter bei über 3 Jahren, und es entstehen Kosten bis in den zweistelligen Millionenbereich. Neue Techniken, die entwickelt werden sollen, müssen daher nach Aufwand und Nutzen gegeneinander abgewogen werden. In dieser Arbeit soll daher eine echtzeitfähige Lösung entwickelt werden, die genaue und natürlich aussehende Animationen zur Visualisierung von Charakter-Objekt-Interaktionen dynamisch mithilfe von Inverser Kinematik erstellt. Gleichzeitig soll der Aufwand, der für die Nutzung anfällt, minimiert werden, um möglichst geringe zusätzliche Entwicklungskosten zu generieren.
Rettungsroboter helfen nach Katastrophen wie z.B. Erdbeben dabei, in zerstörten Gebäuden Überlebende zu finden. Die Aufgabe, die Umgebung effizient möglichst vollständig abzusuchen und dabei eine Karte zu erstellen, die den Rettungskräften bei der Bergung der Opfer zur Orientierung dient, soll der Roboter autonom erfüllen. Hierzu wird eine Explorationsstrategie benötigt; eine Strategie zur Navigation in bekanntem und zur Erkundung von unbekanntem Gelände. Für den mobilen Roboter "Robbie" der Arbeitsgruppe Aktives Sehen wurde in dieser Arbeit ein Grenzen-basierter Ansatz zur Lösung des Explorationsproblems ausgewählt und implementiert. Hierzu werden Grenzen zu unbekanntem Gelände aus der Karte, die der Roboter erstellt, extrahiert und angefahren. Grundlage der Navigation zu einem so gefundenen Wegpunkt bildet die sog. Pfad-Transformation (Path-Transform).
Computed tomography (CT) and magnetic resonance imaging (MRI) in the medical area deliver huge amounts of data, which doctors have to handle in a short time. These data can be visualised efficiently with direct volume rendering. Consequently most direct volume rendering applications on the market are specialised on medical tasks or integrated in medical visualisa- tion environments. Highly evolved applications for tasks like diagnosis or surgery simulation are available in this area. In the last years, however, another area is making increasing use of com- puted tomography. Companies like phoenix |x-ray, founded in 1999 pro- duce CT-scanners especially dedicated to industrial applications like non destructive material testing (NDT). Of course an application like NDT has different demands on the visualisation than a typical medical application. For example a typical task for non destructive testing would be to high- light air inclusions (pores) in a casting. These inclusions usually cover a very small area and are very hard to classify only based on their density value as this would also highlight the air around the casting. This thesis presents multiple approaches to improve the rendering of in- dustrial CT data, most of them based on higher dimensional transfer func- tions. Therefore the existing volume renderer application of VRVis was extended with a user interface to create such transfer functions and exist- ing render modes were adapted to profit from the new transfer functions. These approaches are especially suited to improve the visualisation of sur- faces and material boundaries as well as pores. The resulting renderings make it very easy to identify these features while preserving interactive framerates.