Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (75)
- Diplomarbeit (42)
- Masterarbeit (33)
- Dissertation (5)
- Studienarbeit (1)
Schlagworte
- Augmented Reality (8)
- Computergrafik (8)
- Computervisualistik (7)
- GPGPU (5)
- Raytracing (5)
- Android (4)
- Computergraphik (4)
- Line Space (4)
- OpenGL (4)
- Analyse durch Synthese (3)
- Grafikkarte (3)
- Markerloses Tracking (3)
- Physiksimulation (3)
- Rendering (3)
- VOXEL (3)
- Virtual Reality (3)
- Virtuelle Realität (3)
- virtual reality (3)
- Applikation (2)
- Compute Shader (2)
- Computer Graphics (2)
- Computeranimation (2)
- Computerspiel (2)
- Datenstruktur (2)
- Erweiterte Realität (2)
- Global Illumination (2)
- Globale Beleuchtung (2)
- Graphik (2)
- Immersion (2)
- Linespace (2)
- Material Point Method (2)
- Modellbasiertes Tracking (2)
- Objektverfolgung (2)
- Path Tracing (2)
- Point Rendering (2)
- Realistische Computergrafik (2)
- Schnee (2)
- Shader (2)
- Starrkörper (2)
- Tourismus (2)
- Tracking (2)
- Volumendaten (2)
- Zielverfolgung (2)
- volume rendering (2)
- 3-D-Modelle (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Scan (1)
- AR (1)
- Acceleration Structures (1)
- Ambient Occlusion (1)
- Analyse-durch-Synthese (1)
- Android <Systemplattform> (1)
- Android development (1)
- Androidentwicklung (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- App (1)
- App <Programm> (1)
- Assembly (1)
- Astrophysik (1)
- Autorensystem (1)
- Avatar (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BRDF (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Blickpunktabhängig (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- CSMs (1)
- Casual Game (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Compute-Shader (1)
- Computerspiele (1)
- Constitutive Model (1)
- Cybersickness (1)
- Designwerkzeug (1)
- Display (1)
- Distanzfeld (1)
- E-Learning (1)
- ECSA (1)
- Echtzeit (1)
- Echtzeit Raytracing (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Entity Component System Architecture (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- Extended Reality (1)
- FPIC (1)
- Fell (1)
- Fell Rendering (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Fracturing (1)
- Framework (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- GPGPU-Programmierung (1)
- GPU (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Gebrauchstauglichkeit (1)
- Gebäudemodelle (1)
- Gefühl (1)
- Geometry-Shader (1)
- Gesteninterpretation (1)
- Gonioreflectometer (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Grafikprozessor (1)
- Graphicsprogramming (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haare (1)
- Halbschatten (1)
- Haptik (1)
- Herausforderung (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- HoloLens (1)
- Human motion (1)
- IK-Algorithmus (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informationsvisualisierung (1)
- Innenarchitektur (1)
- Interaktion (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kamera Pose Tracking (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kollisionserkennung (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Leap-Motion (1)
- Lernen (1)
- Lichttransport (1)
- Light Injection (1)
- Malen (1)
- Maschinelles Lernen (1)
- Maschinelles Sehen (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Matting (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mixed Reality (1)
- Modellieren (1)
- Modellierungstool (1)
- Montage (1)
- Motion Capturing (1)
- Motion Sickness (1)
- Motivation (1)
- Musik (1)
- Myokard (1)
- NURBS (1)
- Natural Feature Tracking (1)
- Natural Image Matting (1)
- Navigation (1)
- Nintendo Wii Fernbedienung (1)
- Nvidia CUDA (1)
- OCR (1)
- Octree Textur (1)
- Oktonärbäume (1)
- OpenGL Shading Language (1)
- OpenVDB (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Position Based Dynamics (1)
- Programmierung (1)
- Prozedurale Synthese (1)
- Präsentation (1)
- Punktrendering (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray tracing (1)
- Real-Time (1)
- Realistisches Kameramodell (1)
- Reflections (1)
- Reflektionen (1)
- Rich Internet Application (1)
- Robust Principal Component Analysis (1)
- Sand (1)
- Schatten (1)
- Segmentation (1)
- Segmentierung (1)
- Separating-Axis-Theorem (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Shattering (1)
- Simulation (1)
- Spaß (1)
- Specular (1)
- Stadt (1)
- Stadtmodelle (1)
- Statistical Shape Model (1)
- Sterne (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Tesseract (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourism (1)
- Trackingsystem (1)
- Translation (1)
- Triangulierung (1)
- Ultraschall (1)
- Ultrasound (1)
- Umgebungslicht (1)
- Uniforme Raumunterteilung (1)
- User Interface (1)
- VR (1)
- Virtual characters (1)
- Virtuelle Menschen (1)
- Volume Hatching (1)
- Volumen (1)
- Volumenrendering (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- Weibliches Publikum (1)
- Whiteboard (1)
- Wiimote (1)
- Wolkensimulation (1)
- Zerbrechen (1)
- area light (1)
- augmented reality (1)
- computer games (1)
- flow (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- hybride App (1)
- image warping (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- leap motion (1)
- line space (1)
- machine learning (1)
- markerless tracking (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- octree texture (1)
- physics simulation (1)
- procedural content generation (1)
- projektives Malen (1)
- prozedural (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- rigid body (1)
- rtx (1)
- snow (1)
- soft shadow (1)
- stereoscopic rendering (1)
- texturing (1)
- tracking (1)
- video games (1)
- virtual human (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- Übersetzung (1)
Institut
In dieser Bachelorarbeit wurde ein Tangible Augmented Reality Spiel für Android entwickelt, das einen Mehrwert gegenüber herkömmlichen Computer oder Augmented Reality Spielen haben soll. Der Hauptteil der Arbeit erklärt das Spielkonzept, Entwicklung und die Evaluation des Spiels. Bei der Evaluation wurde das Flow-Erleben, als Maß für den Spielspaß, druch Nutzertest ausgewertet und das erstellte Spiel mit anderen Smartphone-Spielen verglichen. Außerdem werden Augmented Reality, Tangible User Interface und Tangible Augmented Reality vorgstellt und deren Vor- und Nachteile erläutert. Die Geschichte von Augmented Reality wird auch vorgestellt.
Gerade bei der Garten- und Landschaftsgestaltung eröffnen sich viele kreative Möglichkeiten, die zwar der Landschaftsarchitekt, aber nicht dessen Kunde auf Anhieb überblicken kann. Es fehlt eine strukturierte Anwendung mit dessen Hilfe der Kunde auch ohne Fachkenntnisse diese Möglichkeiten erkennen und nutzen kann. Ziel dieser Arbeit ist eine webbasierte Auswahlumgebung zu schaffen, die Benutzer Schritt für Schritt durch die Anwendung führt und dabei den gestalterischen Ansprüchen von Landschaftsarchitekten genügt. Für Nutzer ohne Fachkenntnisse soll eine leicht verständliche Selektion ermöglicht werden mit Hilfe themengebundener Einschränkungen (z.B. nur mediterane Objekte/Pflanzen), die jedoch auch Erweiterungen erlauben. Um dem Benutzer seine gewählten Pflanzen und Objekte auch anschaulich zu machen, soll jederzeit eine Vorschau zur Verfügung stehen. Je nach Auswahl, kann eine X3D-Datei dynamisch erzeugt und mittels X3D-Browser dargestellt werden.
E-Learning Anwendungen sind heutzutage im Trend. Jedoch nicht nur aus diesem Grund sind sie vom großen Interesse. Im Vordergrund steht ihr didaktisches Konzept. Heutzutage ist es technisch möglich, die Teilnehmer interaktiv in einen
E- Learning Kurs einzubinden. Die Lernschritte können durch die Anwendung kontrolliert werden. Im Gegensatz zu einer Vorlesung, kann die Theorie direkt mit der Praxis verknüpft werden. Das Ziel der Arbeit ist die Erstellung eines Konzeptes und die Entwicklung eines Prototypen einer interaktiven Entwicklungsumgebung von Java für Programmieranfänger. In dieser Arbeit wurden aktuelle E-Learning Plattformen zu Java analysiert. Aus den gewonnen Erkenntnissen wurde ein Konzept für eine E-Learningplattform entwickelt. Dieses Konzept wurde erfolgreich als Prototyp implementiert. Für die Implementation wurden bewährte Technologien, wie das Django-Framework und das Javascript-Framework Vue.js eingesetzt. Der Kurs wurde von neun Teilnehmern getestet. Zusätzlich wurde eine Umfrage zu der Kursanwendung durchgeführt. Das Testergebnis bestätigt, dass die Teilnehmer den Kurs bestanden haben.
Die Entwicklung von Benutzerschnittstellen hat sich mit den fortschreitenden technischen Möglichkeiten ebenfalls weiter entwickelt. Neben den klassischen User Interfaces, die den Anwender bei der Aufgabenbewältigung unterstützen sollen, entwickeln sich intensiv erlebbare User Interfaces bei denen die Bedienung als intuitiv wahrgenommen wird. Doch was bedeutet Intuitivität in Bezug auf eine Mensch-Maschine-Schnittstelle? Die vorliegende Diplomarbeit beschäftigt sich mit dieser Thematik. Es werden Theorien und Modelle betrachtet, die versuchen intuitive Benutzbarkeit zu erklären. Anschließend werden zwei Konzepte aus der Software-Ergonomie herausgegriffen und in abgewandelter Form in zwei Prototypen umgesetzt. Hierfür wird ein Fernglasgehäuse in ein Eingabegerät für eine Stereoleinwand umgebaut. In der anschließenden Evaluation wird untersucht, welcher der Prototypen als intuitiver und attraktiver wahrgenommen wird. Hierfür werden beide hinsichtlich der Kriterien für intuitive Benutzbarkeit untersucht, welche zuvor aus den Modellen und Theorien herausgefiltert wurden.
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
In dieser Diplomarbeit wurde eine Applikation implementiert, mit der es auch ungeübten Nutzern möglich ist, 3D Modelle zu texturieren. Dies erfolgt durch direktes Bemalen des Modells, so genanntes 3D Painting. Verschiedene Möglichkeiten hierzu werden untersucht, so das projektive Malen, sowie Octree Texturen.
In dieser Arbeit wird der Nutzen von GPGPU (Allzweckberechnungen auf Grafikprozessoren) zur robusten Deskription von natürlichen, markanten Bildmerkmalen mit Hilfe der Grafikprozessoren mobiler Geräte bewertet. Dazu wurde der SURF-Deskriptor [4] mit OpenGL ES 2.0/GLSL ES 1.0 implementiert und dessen Performanz auf verschiedenen mobilen Geräten ausgiebig evaluiert. Diese Implementation ist um ein Vielfaches schneller als eine vergleichbare CPU-Variante auf dem gleichen Gerät. Die Ergebnisse belegen die Tauglichkeit moderner, mobiler Grafikbeschleuniger für GPGPU-Aufgaben, besonders für die Erkennungsphase von NFT-Systemen (Tracking mit natürlichen, markanten Bildmerkmalen), die in Augmented-Reality-Anwendungen genutzt werden. Die nötigen Anpassungen am Algorithmus des SURF-Deskriptors, um diesen effizient auf mobilen GPUs nutzen zu können, werden dargelegt. Weiterhin wird ein Ausblick auf ein GPGPU-gestütztes Tracking-Verfahren gegeben.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.