Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (70)
- Diplomarbeit (39)
- Masterarbeit (20)
- Dissertation (2)
- Studienarbeit (1)
Sprache
- Deutsch (132) (entfernen)
Schlagworte
- Augmented Reality (8)
- Computergrafik (8)
- Computervisualistik (7)
- Android (4)
- GPGPU (4)
- Raytracing (4)
- Analyse durch Synthese (3)
- Computergraphik (3)
- Line Space (3)
- Markerloses Tracking (3)
- OpenGL (3)
- VOXEL (3)
- Virtual Reality (3)
- Applikation (2)
- Compute Shader (2)
- Datenstruktur (2)
- Erweiterte Realität (2)
- Global Illumination (2)
- Globale Beleuchtung (2)
- Grafikkarte (2)
- Immersion (2)
- Linespace (2)
- Modellbasiertes Tracking (2)
- Objektverfolgung (2)
- Path Tracing (2)
- Physiksimulation (2)
- Point Rendering (2)
- Realistische Computergrafik (2)
- Rendering (2)
- Starrkörper (2)
- Tourismus (2)
- Tracking (2)
- Virtuelle Realität (2)
- Volumendaten (2)
- Zielverfolgung (2)
- 3-D-Modelle (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Scan (1)
- AR (1)
- Ambient Occlusion (1)
- Analyse-durch-Synthese (1)
- Android <Systemplattform> (1)
- Android development (1)
- Androidentwicklung (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- App (1)
- App <Programm> (1)
- Assembly (1)
- Astrophysik (1)
- Autorensystem (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BRDF (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- CSMs (1)
- Casual Game (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Compute-Shader (1)
- Computeranimation (1)
- Computerspiel (1)
- Computerspiele (1)
- Constitutive Model (1)
- Cybersickness (1)
- Designwerkzeug (1)
- Display (1)
- Distanzfeld (1)
- E-Learning (1)
- Echtzeit (1)
- Echtzeit Raytracing (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- Extended Reality (1)
- FPIC (1)
- Fell (1)
- Fell Rendering (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Fracturing (1)
- Framework (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- GPGPU-Programmierung (1)
- GPU (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Gebrauchstauglichkeit (1)
- Gebäudemodelle (1)
- Geometry-Shader (1)
- Gesteninterpretation (1)
- Gonioreflectometer (1)
- Grafik (1)
- Grafikprozessor (1)
- Graphik (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haare (1)
- Halbschatten (1)
- Haptik (1)
- Herausforderung (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- HoloLens (1)
- IK-Algorithmus (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informationsvisualisierung (1)
- Innenarchitektur (1)
- Interaktion (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kamera Pose Tracking (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kollisionserkennung (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Leap-Motion (1)
- Lernen (1)
- Lichttransport (1)
- Light Injection (1)
- Malen (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Matting (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mixed Reality (1)
- Modellieren (1)
- Modellierungstool (1)
- Montage (1)
- Motion Sickness (1)
- Motivation (1)
- Musik (1)
- Myokard (1)
- NURBS (1)
- Natural Image Matting (1)
- Navigation (1)
- Nintendo Wii Fernbedienung (1)
- Nvidia CUDA (1)
- OCR (1)
- Octree Textur (1)
- Oktonärbäume (1)
- OpenGL Shading Language (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Position Based Dynamics (1)
- Programmierung (1)
- Präsentation (1)
- Punktrendering (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray tracing (1)
- Realistisches Kameramodell (1)
- Rich Internet Application (1)
- Schatten (1)
- Schnee (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Shattering (1)
- Simulation (1)
- Spaß (1)
- Stadt (1)
- Stadtmodelle (1)
- Sterne (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Tesseract (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourism (1)
- Trackingsystem (1)
- Translation (1)
- Triangulierung (1)
- Umgebungslicht (1)
- Uniforme Raumunterteilung (1)
- User Interface (1)
- VR (1)
- Virtuelle Menschen (1)
- Volumen (1)
- Volumenrendering (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- Weibliches Publikum (1)
- Whiteboard (1)
- Wiimote (1)
- Wolkensimulation (1)
- Zerbrechen (1)
- area light (1)
- augmented reality (1)
- computer games (1)
- flow (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- hybride App (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- line space (1)
- markerless tracking (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- octree texture (1)
- physics simulation (1)
- projektives Malen (1)
- prozedural (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- rigid body (1)
- rtx (1)
- snow (1)
- soft shadow (1)
- texturing (1)
- virtual human (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- Übersetzung (1)
Institut
In dieser Arbeit werden Methoden und Maße getestet, nach denen beim Pathtracing eine Auswahl zwischen Line Space und Bounding Volume Hierarchie getroffen werden kann, die die Vorteile der beiden Datenstrukturen ausnutzen. Die Strukturen sind innerhalb der Bounding Box jedes Objekts (Objektlokal) definiert und jeder Line Space enthält in den Shafts jeweils eine Kandidaten-ID. Als Implementations- basis dient ein eigenes C++ und OpenGL Framework, in dem das Pathtracing und die Line Space Generierung über Compute Shader stattfindet. Die Maße schließen die Wahrscheinlichkeitsverteilung, die Effektabhängigkeit, sowie einen Distanz- grenzwert ein und werden gegen verschiedene Szenen getestet. Die Ergebnisse zeigen in den meisten Situationen einen deutlichen Geschwindigkeitszuwachs bei teils nur geringen visuellen Unterschieden, wobei das Wahrscheinlichkeitsmaß die qualitativ hochwertigsten Bilder für den gegebenen Leistungszuwachs erbringt. Die grundlegenden Probleme des Line Space im Vergleich mit der BVH, nämlich der hohe Speicherverbrauch und die lange Generierungszeit, bleiben aber trotz der objektlokalen Struktur, der minimalen Datenmenge pro Shaft und der Compute Shader Implementierung, erhalten.
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.
Diese Arbeit zeigt eine neue Technik der Computergrafik zur Simulation von globaler Beleuchtung durch Path Tracing in Echtzeit. Das Path Tracing wird dafür mit Compute Shadern auf der Grafikkarte (GPU) realisiert, um das Rendering hoch parallelisiert auszuführen. Zur Beschleunigung der Strahlverfolgung wird dabei der
Line Space in verschiedenen Varianten als Datenstruktur verwendet, um leere Bereiche in der Szene schneller zu überspringen. Der Line Space speichert Szeneninformationen basierend auf einer Voxelisierung in richtungsabhängige Shafts und wird sowohl auf der GPU generiert, als auch traversiert. Mit diesem Verfahren kann eine Szene physikalisch korrekt indirekt beleuchtet und mit weichen Schatten schattiert werden. Außerdem kann das Path Tracing damit weitgehend unabhängig von der Polygonanzahl mit über 100 Bildern pro Sekunde klar in Echtzeit durchgeführt werden und ist somit deutlich schneller als mit einem vergleichbaren Voxel-Gitter. Die Bildqualität wird davon nicht negativ beeinflusst und die Schattenqualität ist in den meisten Fällen deutlich besser als bei der Verwendung von Shadow-Mapping.
Der Markt der virtuellen Realität entwickelt sich derzeit besonders im Hinblick auf die Hardware kontinuierlich weiter. Infolgedessen ergeben sich immer weitere Anwendungsmöglichkeiten. Neben der Spielebranche bieten sich auch der Forschung neue Möglichkeiten. So lassen sich auch Wahrnehmungsphänomene mithilfe dieser Technologie erforschen. Die vorliegende Arbeit beschäftigt sich daher mit der Untersuchung des induzierten Roelofs Effekts in der virtuellen Realität sowie in der Wirklichkeit anhand eines Computerbildschirms. Dieser beschreibt eine Fehlwahrnehmung, die auftritt, wenn die individuelle Körpermitte und ein Rahmen, der ein optisches Zielobjekt umfasst, verschoben zueinander auftreten, was zu einer Fehllokalisierung des Objekts führt. Die folgende Untersuchung soll Aufschluss über die Beeinflussung durch den Rahmen eines Anzeigegeräts geben. Zudem werden Rückschlüsse über die Eignung der virtuellen Realität bezüglich der Wahrnehmungsforschung gezogen. Die Ergebnisse in der virtuellen Realität weisen ein stärkeres Maß der Wahrnehmungsverzerrung durch den Roelofs Effekt auf, wodurch der feste Rahmen eines Anzeigegeräts als zusätzliche Orientierungshilfe vermutet werden kann.
Diese Arbeit befasst sich mit verschiedenen Möglichkeiten zur Interaktion
mit dreidimensionalen, virtuellen Objekten in der realen Umgebung des
Nutzers. Im Vordergrund stehen Interaktionsmöglichkeiten, welche durch
neue AR-Technologien aufkommen.
Dazu wird ein spielerischer Prototyp einer Applikation für die von Microsoft
entwickelte HoloLens konzipiert und implementiert. Der Prototyp
des Spiels besteht aus drei Phasen. Die erste Phase ist die Aufnahme der
realen Umgebung des Nutzers. In der zweiten Phase kann der Nutzer die
reale Umgebung mit der Hilfe von virtuellen Objekten erweitern. In der
dritten Phase muss der Nutzer einen virtuellen Avatar durch die reale Umgebung
navigieren.
Die Interaktionsmöglichkeiten der HoloLens wie Gaze, Gesture und VoiceInput
werden in den Kategorien Menüführung, Positionierung von virtuellen
Objekten im dreidimensionalen Raum und Steuerung eines Avatars einer
Evaluation unterzogen.
Motion Capture bezeichnet das Aufnehmen, Weiterverarbeiten und auf ein 3D Modell Übertragen von reellen Bewegungen. Nicht nur in der Film- und Spieleindustrie schafft Motion Capture heute einen nicht mehr wegzudenkende Realismus in der Bewegung von Mensch und Tier. Im Kontext der Robotik, der medizinischen Bewegunsthearpie, sowie in AR und VR wird Motion Capture extensiv genutzt. Neben den etablierten optischen Verfah- ren kommen aber gerade in den letzen drei Bereichen auch vermehrt alternative Systeme, die auf Intertialsystemen (IMUs) basieren zum Einsatz, da sie nicht auf externe Kameras angewiesen sind und somit den Bewegungsraum deutlich weniger beschränken.
Schnell vorranschreitender technischer Fortschritt in der Herstellung solcher IMUs, erlaubt den Bau kleiner Sensoren die am Körper getragen werden können und die Bewegung an einen Computer übertragen. Die Entwicklung in der Anwendung von Inertialsystemen auf den Bereich des Motion Capture, steckt allerdings noch in den Kinderschuhen. Probleme wie Drift können bis- her nur durch zusätzliche Hardware, zur Korrektur der Daten, minimiert werden.
In der folgenden Masterarbeit wird ein IMU basiertes Motion Capture System aufgebaut. Dies umfasst den Bau der Hardware sowie die softwa- reseitige Verarbeitung der erhaltenen Bewegungsinformationen und deren Übertragung auf ein 3D Modell.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
Im Bereich Augmented Reality ist es von großer Bedeutung, dass virtuelle
Objekte möglichst realistisch in ein Kamerabild eingebettet werden. Nur
so ist es möglich, dem Nutzer eine immersive Erfahrung zu bieten. Dazu
gehört unter anderem, Verdeckung dieser Objekte korrekt zu behandeln.
Während schon verschiedene Ansätze existieren, dieses Verdeckungsproblem
zu beheben, wird in dieser Arbeit eine Lösung mittels Natural Image
Matting vorgestellt. Mit Hilfe einer Tiefenkamera wird das Kamerabild in
Vorder- und Hintergrund aufgeteilt und anschließend das virtuelle Objekt
im Bild platziert. Für Bereiche, in denen die Zugehörigkeit zu Vorder- oder
Hintergrund nicht eindeutig ist, wird anhand bekannter Pixel ein Transparenz-
Wert geschätzt. Es werden Methoden präsentiert, welche einen
Ablauf des Image Matting in Echtzeit ermöglichen. Zudem werden
Verbesserungsmöglichkeiten dieser Methoden präsentiert und gezeigt, dass
durch diese eine höhere Bildqualität für schwierige Szenen erreicht wird.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Augmented Reality besitzt viele denkbare Anwendungsbereiche, in denen Alltag oder Arbeitsprozesse vereinfacht werden können. Dadurch, dass viele Hersteller sehr unterschiedliche Augmented Reality Brillen anbieten, wird die Auswahl des richtigen Systems und eine systemübergreifende Entwicklung jedoch erschwert. Im Rahmen dieser Bachelorarbeit wird daher eine Anwendung entwickelt, mit der Augmented Reality Brillen auf einem Virtual Reality System simuliert werden können. Damit soll eine plattformübergreifende Entwicklung sowie die Auswahl des richtigen Systems vereinfacht werden.
Da die Simulation für mobile Endgeräte konzipiert werden soll, sollen möglichst realistische Umgebungen als Panorama vorgerendert werden können. Um diese auf Virtual Reality Systemen als stereoskopische Bilder darstellen zu können, werden verschiedene Verfahren zur Konvertierung in solche vorgestellt. Es wird ein Editor entwickelt, mit dem verschiedene Szenarien erstellt, Augmented Reality Systeme konfiguriert und schließlich auf einem Virtual Reality System angezeigt werden können. Abschließend wird untersucht, wie gut die Simulation gelungen ist und welche Verbesserungsmöglichkeiten es gibt.
Bei der musikalischen Grundausbildung von Kindern und Jugendlichen besteht eine spezielle Herausforderung darin, den Kindern das Notenlesen und -schreiben näher zu bringen. Bei der Ausbildung von jungen Nachwuchssängerinnen und -sängern eines Chores ist es zudem wichtig sie damit vertraut zu machen niedergeschriebene Noten direkt in Töne umzusetzen.
Eine interessante Idee ist es, den Kindern während des Unterrichts die Töne auf einem Klavier oder Keyboard vorzuspielen und diese gleichzeitig auf einem Bildschirm in Notenschrift visuell darzustellen.
Ziel dieser Bachelorarbeit ist die Implementierung eines solchen Systems, welches das Einspielen von Noten mit Hilfe eines MIDI-fähigen Keyboards und die anschließende visuelle Wiedergabe der Noten in Notenschrift umsetzt. Die prototypische Anwendung arbeitet in drei Schritten.
Sie erhält über ein angeschlossenes Keyboard die Noten in Form von MIDIDatensätzen als Eingabe. Diese MIDI-Informationen werden dann in das MusicXML-Format überführt. Ausgehend von dieser Notation in Music-XML wird abschließend die visuelle Ausgabe in Form von Notenschrift generiert und angezeigt.
Das Ziel dieser Masterarbeit war es, ein Konzept für einen mobilen Stadtführer mit gamebasierten Inhalten zu entwerfen und prototypisch umzusetzen.
Die Anwendung soll ein flexibles und unabhängiges Entdecken der Stadt Koblenz ermöglichen. Basierend auf den geographischen Daten wurden in der Anwendung stadthistorische Informationen sowie interessante Geschichten zu verschiedenen Orten bereitgestellt. Diese Informationen wurden mit spielerischen Elementen kombiniert, um ein motivierendes Konzept zu schaffen.
Dafür wurden zunächst verwandte Ansätze untersucht und darauf aufbauend unter Berücksichtigung eigener Ideen ein neues Konzept entwickelt. Das Konzept wurde prototypisch als Android-Anwendung umgesetzt. Das Ergebnis wurde in einer abschließenden Evaluation mit 15 Probanden untersucht. Dabei wurden mit Hilfe eines Fragebogens unter anderem die Bedienbarkeit, die Motivation durch die Spielelemente und der Mehrwert der Anwendung betrachtet.
In einer Welt, in der mittlerweile "Die Cloud" als Lösung für nahezu alles angepriesen wird, stellt sich immer häufiger die Frage, ob man seine persönlichen Daten einem Fremden anvertrauen möchte, oder sie doch lieber unter der eigenen Kontrolle behält. Für die Befürworter der letzten Option steht "ownCloud" als freies Softwarepaket zur Verfügung, um eine eigene Cloud aufzusetzen und ihre Inhalte mit Anderen zu teilen.
Um das Teilen von Lernwerkzeugen zu vereinheitlichen und damit zu vereinfachen, wurde von IMS GLOBAL die "Learning Tools Interoperability" Spezifikation - kurz LTI - entwickelt. Diese wird inzwischen von einer zunehmenden Anzahl von Lernmanagementsystemen und Lernressourcen unterstützt. Eine interessante Herausforderung ist daher, zu untersuchen, ob und wie man ownCloud mit verschiedenen bestehenden Lernwerkzeugen mittels LTI verbinden und daraus Nutzen ziehen kann.
Ziel dieser Arbeit ist es, ein Plugin für ownCloud zu konzeptionieren und zu entwickeln, das die Kommunikation mit Lernwerkzeugen per LTI
ermöglicht. Dabei soll sowohl die Consumer- als auch die Providerseite mit einem Proof of Concept berücksichtigt werden, um jeweils die Möglichkeiten und Grenzen dieser Verbindungen zu untersuchen.
Der natürliche Prozess der Verwitterung ist ein komplexer Vorgang, der von unterschiedlichsten Parametern beeinflusstwird. Hauptbestandteil dieses Prozesses ist das Zusammenziehen des Fruchtvolumens infolge von Wasserverlust durch Transpiration sowie die Veränderung der Fruchtfarbe und Oberfläche. Es wurden bereits Verfahren entwickelt, die diese Eigenschaften mit Hilfe von Parametrisierung sowie physikalischer Ansätze simulieren. Die in dieser Arbeit erstellte Anwendung simuliert das Fruchtfleisch durch ein Tetraedernetz und die Veränderung der Haut mit Hilfe von dynamischer Texturanpassung. Der entwickelte Algorithmus arbeitet in linearer Laufzeit und seine Ergebnisse werden anhand selbst erstellter Fruchtmodelle präsentiert.
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
Eine der grundlegenden Entscheidungen bei der Entwicklung eines Systems ist die Darstellung der Daten. Üblicherweise werden in der Computergrafik Objekte durch Dreiecke dargestellt. Allerdings existieren viele weitere Varianten, welche andere Stärken und Schwächen besitzen. In dieser Arbeit soll die Repräsentation von Objekten durch Distanzfelder untersucht werden. Distanzfelder sind Funktionen, welche für jeden Raumpunkt die Distanz zum nächsten Oberflächenpunkt angeben. Aus dieser einfachen Beschreibung lassen sich viele interessante Eigenschaften ableiten, welche zur Darstellung einer Vielzahl von Formen, Operationen und Effekten genutzt werden können. Es wird ein Überblick über die Hintergründe und Methoden des Distanzfeld-Renderings gegeben. Weiterhin werden verschiedene neue oder erweiterte Ansätze vorgestellt, etwa zur Darstellung impliziter Oberflächen, approximativer indirekter Beleuchtung oder einer GPU Implementation.
In der vorliegenden Arbeit werden gamebasierte touristische Anwendungen untersucht.
Ausgehend von der These, dass für touristisches Freizeiterleben primär intrinsisch motivierende Anwendungen geeignet sind, werden zunächst intrinsische Motivationskonzepte untersucht. Dazu wird untersucht, wie Motivation gezielt herbeigeführt werden kann und ob sich gamebasierte Motivationskonzepte auf nichtspielerische Anwendungen übertragen lassen.
Darauf aufbauend wurden im Rahmen dieser Arbeit verschiedene touristische Anwendungen entwickelt und evaluiert. Ziel dieser Anwendungen ist es stets, einen Mehrwert für das touristische Freizeiterleben zu erzeugen. Die Anwendungen werden nach ihrer Mobilität kategorisiert. Es werden vollständig mobile, vollständig stationäre und hybride Systeme untersucht. Als Mehrwertkomponenten werden in dieser Arbeit spielbasierte Exploration einer Umgebung, Wissensvermittlung und soziale Interaktion zwischen Touristen untersucht.
Abschließend wird ein Autorentool für spielbasierte touristische Touren auf Smartphones entwickelt und untersucht, das seinerseits auf spielbasierte Elemente zurückgreift. Das Ziel dieses Systems ist es, Konzepte zu entwickeln, die beispielsweise eine Integration in soziale Netzwerke erlauben.
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.