Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (70)
- Diplomarbeit (39)
- Masterarbeit (20)
- Dissertation (2)
- Studienarbeit (1)
Sprache
- Deutsch (132) (entfernen)
Schlagworte
- Augmented Reality (8)
- Computergrafik (8)
- Computervisualistik (7)
- Android (4)
- GPGPU (4)
- Raytracing (4)
- Analyse durch Synthese (3)
- Computergraphik (3)
- Line Space (3)
- Markerloses Tracking (3)
Institut
In dieser Arbeit wird ein erster Prototyp einer mobilen Lernplattform mit Mixed-Reality-Funktionalität (MR) entwickelt. Dieses System soll in den Arbeitsprozess integriertes, selbstbestimmtes Lernen, in Interaktion mit dem Arbeitsgegenstand ermöglichen. Dies entspricht einem situierten, gemäßigt konstruktivistischen Kompetenzbegriff zur beruflichen Weiterbildung, wie ihn Martens-Parree beschreibt. Anhand eines Probandentests in einer Beispieldomäne, der Ausbildung von Piloten auf Segelflugzeugen, wird untersucht, ob Kompetenzvermittlung im Sinne von Handlungskompetenz mit Hilfe des mobilen MR-Lernmediums unterstützt wird und, ob das System bei konkreten Arbeitsaufgaben arbeitserleichternd wirkt. Die Annahmen der erwachsenenpädagogischen Ausgangsthesen konnten grundsätzlich gestützt werden, auch wenn keine direkte Handlungskompetenz, sondern lediglich eine Wissensvermittlung nachgewiesen werden konnte.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
Das Ziel dieser Bachelorarbeit bestand darin, die Verbindung zwischen den Technologien Augmented und Virtual Reality zu veranschaulichen und ein sinnvolles Zusammenspiel der beiden Darstellungsformen zu kreieren. Hierfür wurde eine Anwendung im Bereich der Innenarchitektur implementiert, bei welcher man einen Raumplan mittels Augmented Reality intuitiv gestalten und sich anschließend einen realitätsnahen Eindruck des eingerichteten Zimmers mit einer Virtual Reality Simulation machen kann. Auf Basis des nötigen Grundwissens wurde ein Konzept für dieses Projekt ausgearbeitet und anschließend mit verschiedenen Entwicklungssystemen realisiert. Diese Implementierung wurde im Rahmen einer Evaluationsreihe getestet und darauffolgend optimiert. Das Ergebnis bestätigt die Annahme, dass sich Augmented und Virtual Reality mit ihren jeweiligen Stärken evident miteinander verbinden lassen. Diese Arbeit ist sowohl für Studierende im Bereich Informatik als auch für Interessenten an innovativen Lösungen relevant.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
In dieser Arbeit soll ein dreidimensionales, echtzeitfähiges Landschaftsmodell des Mittelrheintals erstellt werden. Dabei soll die Modellerstellung soweit wie möglich automatisiert werden. Als Datengrundlage dienen das digitale Landschaftsmodell ATKIS-Basis DLM sowie das digitale Geländemodell (DGM), welches die notwendigen Höheninformationen zur Erzeugung des dreidimensionalen Modells enthält. Insbesondere soll dabei untersucht werden, wie sich die Generierung von Landschaftsmerkmalen wie Infrastruktur und Vegetation durch ein parametrisierbares Modell automatisieren lässt, und inwieweit sich die verwendeten Daten für einen solchen Automatisierungsprozess eignen.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
In dieser Diplomarbeit wurde eine Applikation implementiert, mit der es auch ungeübten Nutzern möglich ist, 3D Modelle zu texturieren. Dies erfolgt durch direktes Bemalen des Modells, so genanntes 3D Painting. Verschiedene Möglichkeiten hierzu werden untersucht, so das projektive Malen, sowie Octree Texturen.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
In dieser Diplomarbeit wurde eine Echtzeitanwendung entwickelt, die Gras darstellt und zugleich äußere Einflüsse wie Wind oder Kollisionen auf das Gras berücksichtigt. Ein Level-of-Detail-System ermöglicht die Darstellung und Physiksimulation einer großen Wiese in drei Stufen. Semi-transparente Texturquads zur Darstellung und Partikel mit Constraints an der Stelle der Graspatches stellen die feinste Detailstufe in allernächster Nähe zum Betrachter dar. Die Partikel, die nur auf der feinsten Detailstufe verwendet werden, werden mittels einer Physik-Engine berechnet und reagieren auf verschiedene Starrkörper. Die zweite Detailstufe besteht ebenfalls aus Texturquads, die um das erste Detaillevel herum generiert werden. Diese sind jedoch spärlicher verteilt, sehen auf Grund der Distanz zum Betrachter allerdings identisch mit denen aus der ersten Stufe aus. Als letzte Repräsentationsform von Gras kommt eine einfache Bodentextur zur Anwendung. Durch dieses Level-of-Detail-System ist es möglich eine unendlich große Wiese zu simulieren, da die Gräser zur Laufzeit generiert werden. Ein umfangreiches Benutzerinterface ermöglicht die Veränderung einiger Simulationsparameter in Echtzeit und die Generierung verschieden großer Rasenflächen. Zusätzlich lassen sich verschiedene Objekte in der Simulationsumgebung bewegen um die Kollisionsbehandlung testen zu können.
Ziel dieser Arbeit war es, ein (ggf. aus Teilverfahren zusammengesetztes) Gesamtsystem zur Generierung von Stadt- und Gebäudemodellen zu entwickeln und umzusetzen. Dabei war insbesondere wichtig, dass die baulichen Elemente einer Stadt durch realistisch wirkende, dreidimensionale Formen repräsentiert und auch in großer Anzahl unter Echtzeit-Bedingungen dargestellt werden können.
Ziel dieser Arbeit ist es, markerloses Tracking unter dem Ansatz der Analyse durch Synthese zu realisieren und dabei auf den Einsatz merkmalsbasierter Verfahren zu verzichten. Das Bild einer Kamera und ein synthetisches Bild der Szene sollen durch den Einsatz von Stilisierungstechniken so verändert und angeglichen werden, dass zu dem gegebenen Kamerabild aus einer Auswahl von gerenderten Bildern jenes erkannt werden kann, welches die reale Kamerapose am exaktesten wiedergibt. Es werden Kombinationen von Ähnlichkeitsmaßen und Visualisierungen untersucht, um eine bestmögliche Vergleichbarkeit der Bilder zu erreichen, welche die Robustheit gegen Trackingfehler erhöhen soll.
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
Fristete der Computer vor wenigen Jahrzehnten sein Dasein noch in Rechenzentren weniger, großer Universitäten und Firmen, so sind Computer und deren Rechenleistung heute allgemein verbreitet. Gerade in den letzten Jahren hat dabei auch die computergenerierte Bilderzeugung große Fortschritte gemacht, und die Entwicklung hält rasant an. Auf diese Weise erzeugte Bilder und Bildsequenzen sind aus den visuellen Medien nicht mehr wegzudenken, sie werden in denmeisten Film- oder Fernsehproduktionen eingesetzt. Dokumentationen, Wissenssendungen und Nachrichtenformate setzen solche Bilder zur Vermittlung von Inhalten ein. Spezialeffekte werden Filmen mit dem Computer hinzugefügt. Ausschließlich mit dem Rechner erstellte Filme, deren Entwicklung vor ungefähr dreißig Jahren mit einfachen und kurzen Sequenzen begann, stehen heute realen Filmen in Länge, visueller und erzählerischer Qualität kaum noch nach. Doch nicht nur bei der Erstellung von Filmen ist der Computer nicht mehr wegzudenken. Computerspiele stellen in vielen Bereichen die treibende Kraft hinter der Computerentwicklung dar. Sie sind die "Killerapplikation", denn es sind vor allem Spiele, die zur Zeit nach leistungsfähigeren Computerkomponenten für Heimcomputer,wie Prozessoren und Graphikkarten, verlangen. Auch die visuelle Qualität von Computerspielen nimmt stetig zu, und hat ein sehr realitätsnahes Niveau erreicht. Ob Dokumentation, Film oder Spiel, die Erzeugung computergenerierten Inhalts besteht aus vielen Teilen. Die Erzeugung der Bilder ist nur ein kleiner Teil davon. Der Begriff Computeranimationwird oft für den gesamten Prozess der Erstellung eines Films im Computer verwendet. Im Speziellen beschäftigt sich die Animation mit der Bewegung. Die Erstellung von Bewegungsabläufen wird für Animationsfilme, Computerspiele und auch für Spezialeffekte in realen Filmen benötigt. Heute existiert eine Vielzahl von Programmen und Werkzeugen, welche die Erstellung von Animationen im Computer ermöglichen. Verbreitete Applikationen wie MAYA1, LIGHTWAVE2 oder BLENDER3 stützen sich dabei auf grundlegende Konzepte, die hinter der Erstellung von Animationssequenzen im Computer stehen. Die Arbeit setzt sich mit diesen Grundlagen auseinander und entwickelt darauf aufbauend einen Animationseditor, der die notwendige Funktionalität für die Erstellung von Animationssequenzen bereitstellt.
Eine der grundlegenden Entscheidungen bei der Entwicklung eines Systems ist die Darstellung der Daten. Üblicherweise werden in der Computergrafik Objekte durch Dreiecke dargestellt. Allerdings existieren viele weitere Varianten, welche andere Stärken und Schwächen besitzen. In dieser Arbeit soll die Repräsentation von Objekten durch Distanzfelder untersucht werden. Distanzfelder sind Funktionen, welche für jeden Raumpunkt die Distanz zum nächsten Oberflächenpunkt angeben. Aus dieser einfachen Beschreibung lassen sich viele interessante Eigenschaften ableiten, welche zur Darstellung einer Vielzahl von Formen, Operationen und Effekten genutzt werden können. Es wird ein Überblick über die Hintergründe und Methoden des Distanzfeld-Renderings gegeben. Weiterhin werden verschiedene neue oder erweiterte Ansätze vorgestellt, etwa zur Darstellung impliziter Oberflächen, approximativer indirekter Beleuchtung oder einer GPU Implementation.
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Im Bereich Augmented Reality ist es von großer Bedeutung, dass virtuelle
Objekte möglichst realistisch in ein Kamerabild eingebettet werden. Nur
so ist es möglich, dem Nutzer eine immersive Erfahrung zu bieten. Dazu
gehört unter anderem, Verdeckung dieser Objekte korrekt zu behandeln.
Während schon verschiedene Ansätze existieren, dieses Verdeckungsproblem
zu beheben, wird in dieser Arbeit eine Lösung mittels Natural Image
Matting vorgestellt. Mit Hilfe einer Tiefenkamera wird das Kamerabild in
Vorder- und Hintergrund aufgeteilt und anschließend das virtuelle Objekt
im Bild platziert. Für Bereiche, in denen die Zugehörigkeit zu Vorder- oder
Hintergrund nicht eindeutig ist, wird anhand bekannter Pixel ein Transparenz-
Wert geschätzt. Es werden Methoden präsentiert, welche einen
Ablauf des Image Matting in Echtzeit ermöglichen. Zudem werden
Verbesserungsmöglichkeiten dieser Methoden präsentiert und gezeigt, dass
durch diese eine höhere Bildqualität für schwierige Szenen erreicht wird.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
Die folgende Bachelorarbeit gibt einen Überblick über verschiedene Ansätze und Verfahren zur prozeduralen Generierung von dreidimensionalen Stadtmodellen. Dabei wird vor allem die Nutzung generativer Grammatiken näher untersucht und in einer eigens implementierten Anwendung integriert. Der Schwerpunkt war es, ein vorgegebenes, primäres Straßennetz einzubinden und darauffolgend ein sekundäres Straßennetz sowie verschiedene Gebäude prozedural zu generieren. Die Anwendung ermöglicht es, umfangreiche und unterschiedlich strukturierte Stadtmodelle auf effiziente Weise zu erzeugen. Hinsichtlich des Realismus und Variantenreichtums weisen die Ergebnisse jedoch Grenzen auf.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Es wird ein Augmented-Reality Ansatz zur Erforschung modularer OSGi-Softwaresysteme präsentiert. Der Prototyp wird unter der Verwendung der Microsoft HoloLens implementiert. Module, wie Komponenten und Packages, werden in einer virtuellen Stadt dargestellt. Dieser Ansatz ermöglicht es dem Anwender, die Software-Architektur mittels intuitiver Navigation zu erkunden: Spracheingabe, Blickpunkt- und Gestenkontrolle. Eine multifunktionale Benutzeroberfläche wird vorgestellt, die für verschiedene Zielgruppen adaptiert werden kann. Viele veröffentlichte Visualisierungen weisen keine klare Zielgruppendefinition auf. Das Konzept kann leicht auf andere Darstellungsformen, wie beispielsweise der Inselmetapher übertragen werden. Erste Ergebnisse einer Evaluierung, die mittels kleiner strukturierter Interviews gewonnen werden konnten, werden präsentiert. Die Probanden mussten vier Programm-verständnis Aufgaben lösen und ihren Aufwand, sowie ihre Arbeitsbelastung einschätzen. Die Ergebnisse bilden eine gute Grundlage für weitere Forschung im Bereich der Software- Visualisierung in Augmented Reality.
Das Ziel der vorliegenden Masterarbeit ist es, einen Einführungskurs in die Computervisualistik mit dem Schwerpunkt Computergrafik zu konzeptionieren und zu prototypisieren. Der Kurs sollte Grundlagen der Computergrafik vermitteln und dabei Bezüge zu anderen Veranstaltungen des Studiums herstellen, um Motivation und Verständnis für die komplexen Zusammenhänge der Studieninhalte in der Computervisualistik zu schaffen. Der aktuelle Studiengangplan weist hier bislang ein erkennbares Defizit auf. Für den Einführungskurs wurden prototypische Lerneinheiten auf Grundlage der didaktischen Methode der Moderation und unter Verwendung von Unity entwickelt. Konzept und Prototypen wurden an Probanden ohne informationstechnischen Hintergrund evaluiert. Die Ergebnisse zeigten, dass Unity eine geeignete Oberfläche für die Vermittlung der Informationen bietet. Diese stieß auf Akzeptanz und konnte leichte Zugänglichkeit bei den Probanden aufweisen, obwohl die Lerneinheiten selbst kleinere Schwächen aufwiesen. Im Anschluss an die erste Evaluationsphase wurde eine qualitative Umfrage mit Alumini der Computervisualistik durchgeführt. Die Ergebnisse bestätigten den Bedarf nach einer einführenden Veranstaltung zur Orientierung und zur Förderung von Motivation und Verständnis für die breiten Themengebiete der Computervisualistik.
Die vorliegende Arbeit stellt eine Rigid-Body Physik-Engine vor, deren Schwerpunkt auf der Kollisionserkennung per GPU liegt. Die steigende Performanz und Zugänglichkeit moderner Grafikkarten sorgt dafür, dass sich diese auch für Algorithmen nutzen lassen, die nicht nur zur Bilderzeugung gedacht sind. Dieser Vorteil wird genutzt, um eine effiziente auf Partikeln basierende Kollisionserkennung zu implementieren. Mit Hilfe einer Testumgebung wird dann der Performance-Unterschied zwischen CPU und GPU dargestellt.
Diese Arbeit beschreibt den Entwurf und die Umsetzung einer prototypischen Android-Applikation zum Dokumentieren von Reiserouten. Nach einer kurzen Einführung in die grundlegenden Aspekte des Reisens, der notwendigen Hilfsmittel sowie das Betriebssystem Android wird das Konzept und die Anforderungen an die Anwendung vorgestellt. Anschließend werden die Realisierung der Implementierung erläutert und die Ergebnisse der Evaluation offengelegt.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
In dieser Bachelorarbeit wurde ein Tangible Augmented Reality Spiel für Android entwickelt, das einen Mehrwert gegenüber herkömmlichen Computer oder Augmented Reality Spielen haben soll. Der Hauptteil der Arbeit erklärt das Spielkonzept, Entwicklung und die Evaluation des Spiels. Bei der Evaluation wurde das Flow-Erleben, als Maß für den Spielspaß, druch Nutzertest ausgewertet und das erstellte Spiel mit anderen Smartphone-Spielen verglichen. Außerdem werden Augmented Reality, Tangible User Interface und Tangible Augmented Reality vorgstellt und deren Vor- und Nachteile erläutert. Die Geschichte von Augmented Reality wird auch vorgestellt.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.