Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (75)
- Diplomarbeit (42)
- Masterarbeit (33)
- Dissertation (5)
- Studienarbeit (1)
Schlagworte
- Augmented Reality (8)
- Computergrafik (8)
- Computervisualistik (7)
- GPGPU (5)
- Raytracing (5)
- Android (4)
- Computergraphik (4)
- Line Space (4)
- OpenGL (4)
- Analyse durch Synthese (3)
- Grafikkarte (3)
- Markerloses Tracking (3)
- Physiksimulation (3)
- Rendering (3)
- VOXEL (3)
- Virtual Reality (3)
- Virtuelle Realität (3)
- virtual reality (3)
- Applikation (2)
- Compute Shader (2)
- Computer Graphics (2)
- Computeranimation (2)
- Computerspiel (2)
- Datenstruktur (2)
- Erweiterte Realität (2)
- Global Illumination (2)
- Globale Beleuchtung (2)
- Graphik (2)
- Immersion (2)
- Linespace (2)
- Material Point Method (2)
- Modellbasiertes Tracking (2)
- Objektverfolgung (2)
- Path Tracing (2)
- Point Rendering (2)
- Realistische Computergrafik (2)
- Schnee (2)
- Shader (2)
- Starrkörper (2)
- Tourismus (2)
- Tracking (2)
- Volumendaten (2)
- Zielverfolgung (2)
- volume rendering (2)
- 3-D-Modelle (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Scan (1)
- AR (1)
- Acceleration Structures (1)
- Ambient Occlusion (1)
- Analyse-durch-Synthese (1)
- Android <Systemplattform> (1)
- Android development (1)
- Androidentwicklung (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- App (1)
- App <Programm> (1)
- Assembly (1)
- Astrophysik (1)
- Autorensystem (1)
- Avatar (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BRDF (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Blickpunktabhängig (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- CSMs (1)
- Casual Game (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Compute-Shader (1)
- Computerspiele (1)
- Constitutive Model (1)
- Cybersickness (1)
- Designwerkzeug (1)
- Display (1)
- Distanzfeld (1)
- E-Learning (1)
- ECSA (1)
- Echtzeit (1)
- Echtzeit Raytracing (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Entity Component System Architecture (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- Extended Reality (1)
- FPIC (1)
- Fell (1)
- Fell Rendering (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Fracturing (1)
- Framework (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- GPGPU-Programmierung (1)
- GPU (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Gebrauchstauglichkeit (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geometry-Shader (1)
- Gesteninterpretation (1)
- Gonioreflectometer (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Grafikprozessor (1)
- Graphicsprogramming (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haare (1)
- Halbschatten (1)
- Haptik (1)
- Herausforderung (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- HoloLens (1)
- Human motion (1)
- IK-Algorithmus (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informationsvisualisierung (1)
- Innenarchitektur (1)
- Interaktion (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kamera Pose Tracking (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kollisionserkennung (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Leap-Motion (1)
- Lernen (1)
- Lichttransport (1)
- Light Injection (1)
- Malen (1)
- Maschinelles Lernen (1)
- Maschinelles Sehen (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Matting (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mixed Reality (1)
- Modellieren (1)
- Modellierungstool (1)
- Montage (1)
- Motion Capturing (1)
- Motion Sickness (1)
- Motivation (1)
- Musik (1)
- Myokard (1)
- NURBS (1)
- Natural Feature Tracking (1)
- Natural Image Matting (1)
- Navigation (1)
- Nintendo Wii Fernbedienung (1)
- Nvidia CUDA (1)
- OCR (1)
- Octree Textur (1)
- Oktonärbäume (1)
- OpenGL Shading Language (1)
- OpenVDB (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Position Based Dynamics (1)
- Programmierung (1)
- Prozedurale Synthese (1)
- Präsentation (1)
- Punktrendering (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray tracing (1)
- Real-Time (1)
- Realistisches Kameramodell (1)
- Reflections (1)
- Reflektionen (1)
- Rich Internet Application (1)
- Robust Principal Component Analysis (1)
- Sand (1)
- Schatten (1)
- Segmentation (1)
- Segmentierung (1)
- Separating-Axis-Theorem (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Shattering (1)
- Simulation (1)
- Spaß (1)
- Specular (1)
- Stadt (1)
- Stadtmodelle (1)
- Statistical Shape Model (1)
- Sterne (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Tesseract (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourism (1)
- Trackingsystem (1)
- Translation (1)
- Triangulierung (1)
- Ultraschall (1)
- Ultrasound (1)
- Umgebungslicht (1)
- Uniforme Raumunterteilung (1)
- User Interface (1)
- VR (1)
- Virtual characters (1)
- Virtuelle Menschen (1)
- Volume Hatching (1)
- Volumen (1)
- Volumenrendering (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- Weibliches Publikum (1)
- Whiteboard (1)
- Wiimote (1)
- Wolkensimulation (1)
- Zerbrechen (1)
- area light (1)
- augmented reality (1)
- computer games (1)
- flow (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- hybride App (1)
- image warping (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- leap motion (1)
- line space (1)
- machine learning (1)
- markerless tracking (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- octree texture (1)
- physics simulation (1)
- procedural content generation (1)
- projektives Malen (1)
- prozedural (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- rigid body (1)
- rtx (1)
- snow (1)
- soft shadow (1)
- stereoscopic rendering (1)
- texturing (1)
- tracking (1)
- video games (1)
- virtual human (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- Übersetzung (1)
Institut
Typischerweise erweitern Augmented Reality (AR)-Anwendungen die Sicht des Benutzers auf die reale Welt um virtuelle Objekte.
In den letzten Jahren hat AR zunehmend an Popularität und Aufmerksamkeit gewonnen. Dies hat zu Verbesserungen der benötigten Technologien geführt. AR ist dadurch für fast jeden zugänglich geworden.
Forscher sind dem Ziel einer glaubwürdigen AR, in der reale und virtuelle Welten nahtlos miteinander verbunden sind, einen großen Schritt näher gekommen. Sie konzentrieren sich hauptsächlich auf Themen wie Tracking, Anzeige-Technologien und Benutzerinteraktion und schenken der visuellen und physischen Kohärenz bei der Kombination realer und virtueller Objekte wenig Aufmerksamkeit. Beispielsweise sollen virtuelle Objekte nicht nur auf die Eingaben des Benutzers reagieren, sondern auch mit realen Objekten interagieren. Generell wird AR glaubwürdiger und realistischer, wenn virtuelle Objekte fixiert oder verankert in der realen Szene erscheinen, sich nicht von der realen Szene unterscheiden und auf Veränderungen dieser Szene reagieren.
Diese Arbeit untersucht drei Herausforderungen im Bereich Maschinelles Sehen um dem Ziel einer glaubwürdig kombinierten Welt näher zu kommen, in der virtuelle Objekte wie reale erscheinen und sich ebenso verhalten.
Diese Dissertation konzentriert sich als erstes auf das bekannte Tracking- und Registrierungsproblem. Hierzu wird die Herausforderung von Tracking und Registrierung diskutiert und ein Ansatz vorgestellt, um die Position und den Blickpunkt des Benutzers zu schätzen, so dass virtuelle Objekte in der realen Welt fest verankert erscheinen. Linienmodelle, die dem Erscheinungsbild entsprechen und nur für Trackingzwecke relevante Kanten beinhalten, ermöglichen eine absolute Registrierung in der realen Welt und ein robustes Tracking. Einerseits ist es nicht notwendig, viel Zeit in die manuelle Erstellung geeigneter Modelle zu investieren, andererseits ist das Tracking in der Lage mit Änderungen innerhalb des zu verfolgenden Objekts oder Szene umzugehen. Versuche haben gezeigt, dass die Verwendung von solchen Linienmodellen die Robustheit, Genauigkeit und Re-initialisierungsgeschwindigkeit des Tracking-Prozesses verbessert haben.
Zweitens beschäftigt sich diese Dissertation mit dem Thema der Oberflächenrekonstruk\-tion einer realen Umgebung und präsentiert einen Algorithmus zur Optimierung einer laufenden Oberflächenrekonstruktion. Vollständige 3D-Oberflächenrekonstruktionen einer Szene
eröffnen neue Möglichkeiten um realistischere AR-Anwendungen zu erstellen. Verschiedene Interaktionen zwischen realen und virtuellen Objekten, wie Kollisionen und Verdeckungen, können physikalisch korrekt behandelt werden. Während sich die bisherigen Methoden darauf konzentrierten die Oberflächenrekonstruktionen nach einem Aufnahmeschritt zu verbessern, wird die Rekonstruktion während der Aufnahme erweitert, Löcher werden geschlossen und Rauschen wird reduziert. Um eine unbekannte Umgebung zu erkunden muss der Benutzer keine Vorbereitungen treffen. Das Scannen der Szene oder eine vorhergehende Auseinandersetzung mit der zugrundeliegenden Technologie ist somit nicht notwendig.
In Experimenten lieferte der Ansatz realistische Ergebnisse, bei denen bekannte Oberflächen für verschiedene Oberflächentypen erweitert und Löcher plausibel gefüllt wurden.
Anschließend konzentriert sich diese Dissertation auf die Behandlung von realistischen Verdeckungen zwischen realer und virtueller Welt. Hierzu wird die Herausforderung der Verdeckung als Alpha Matting Problem formuliert. Die vorgestellte Methode überwindet die Grenzen moderner Methoden, indem ein Überblendungskoeffizienten pro Pixel der gerenderten virtuellen Szene schätzt wird, anstatt nur deren Sichtbarkeit zu berechnen. In mehreren Experimenten und Vergleichen mit anderen Methoden hat sich die Verdeckungsbehandlung durch Alpha Matting als robust erwiesen und kann mit Daten, die durch preiswerte Sensoren aufgenommen wurden, umgehen. Hinsichtlich der Qualität, des Realismus und der praktischen Anwendbarkeit übertrifft die Methode die Ergebnisse von bisherigen Ansätzen.
Des Weiteren kann die Methode mit verrauschten Tiefendaten umgehen und liefert realistische Ergebnisse in Regionen, in denen Vorder- und Hintergrund nicht strikt voneinander trennbar sind (z.B. bei Objekten mit einer undeutlichen Kontur oder durch Bewegungsunschärfe).
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.