Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (70)
- Diplomarbeit (39)
- Masterarbeit (20)
- Dissertation (2)
- Studienarbeit (1)
Sprache
- Deutsch (132) (entfernen)
Schlagworte
- Augmented Reality (8)
- Computergrafik (8)
- Computervisualistik (7)
- Android (4)
- GPGPU (4)
- Raytracing (4)
- Analyse durch Synthese (3)
- Computergraphik (3)
- Line Space (3)
- Markerloses Tracking (3)
- OpenGL (3)
- VOXEL (3)
- Virtual Reality (3)
- Applikation (2)
- Compute Shader (2)
- Datenstruktur (2)
- Erweiterte Realität (2)
- Global Illumination (2)
- Globale Beleuchtung (2)
- Grafikkarte (2)
- Immersion (2)
- Linespace (2)
- Modellbasiertes Tracking (2)
- Objektverfolgung (2)
- Path Tracing (2)
- Physiksimulation (2)
- Point Rendering (2)
- Realistische Computergrafik (2)
- Rendering (2)
- Starrkörper (2)
- Tourismus (2)
- Tracking (2)
- Virtuelle Realität (2)
- Volumendaten (2)
- Zielverfolgung (2)
- 3-D-Modelle (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Scan (1)
- AR (1)
- Ambient Occlusion (1)
- Analyse-durch-Synthese (1)
- Android <Systemplattform> (1)
- Android development (1)
- Androidentwicklung (1)
- Angiographiebilder (1)
- Animationsverfahren (1)
- Anzeige (1)
- App (1)
- App <Programm> (1)
- Assembly (1)
- Astrophysik (1)
- Autorensystem (1)
- Avatare (1)
- Axis Aligned Bounding Box (AABB) (1)
- BRDF (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Bordinstrument (1)
- Bounding Volume Hierarchie (1)
- Bounding Volume Hierarchy (1)
- Breaking (1)
- Bruchsimulation (1)
- Business Intelligence (1)
- C++ (1)
- CSMs (1)
- Casual Game (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Compute-Shader (1)
- Computeranimation (1)
- Computerspiel (1)
- Computerspiele (1)
- Constitutive Model (1)
- Cybersickness (1)
- Designwerkzeug (1)
- Display (1)
- Distanzfeld (1)
- E-Learning (1)
- Echtzeit (1)
- Echtzeit Raytracing (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitfähigkeit (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- Extended Reality (1)
- FPIC (1)
- Fell (1)
- Fell Rendering (1)
- Fluiddynamik (1)
- Fluidsimulation (1)
- Fracturing (1)
- Framework (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- GPGPU-Programmierung (1)
- GPU (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Gebrauchstauglichkeit (1)
- Gebäudemodelle (1)
- Geometry-Shader (1)
- Gesteninterpretation (1)
- Gonioreflectometer (1)
- Grafik (1)
- Grafikprozessor (1)
- Graphik (1)
- Graphikhardware (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- Haare (1)
- Halbschatten (1)
- Haptik (1)
- Herausforderung (1)
- Herzerkrankungen (1)
- High dynamic Range (1)
- HoloLens (1)
- IK-Algorithmus (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Informationsvisualisierung (1)
- Innenarchitektur (1)
- Interaktion (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Kamera Pose Tracking (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kollisionserkennung (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Leap-Motion (1)
- Lernen (1)
- Lichttransport (1)
- Light Injection (1)
- Malen (1)
- Material Point Method (1)
- Material point method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Matting (1)
- Mensch-Maschine-Schnittstelle (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Mixed Reality (1)
- Modellieren (1)
- Modellierungstool (1)
- Montage (1)
- Motion Sickness (1)
- Motivation (1)
- Musik (1)
- Myokard (1)
- NURBS (1)
- Natural Image Matting (1)
- Navigation (1)
- Nintendo Wii Fernbedienung (1)
- Nvidia CUDA (1)
- OCR (1)
- Octree Textur (1)
- Oktonärbäume (1)
- OpenGL Shading Language (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Partikel (1)
- Partikelsystem (1)
- Pathtracing (1)
- Position Based Dynamics (1)
- Programmierung (1)
- Präsentation (1)
- Punktrendering (1)
- Raumplanung (1)
- Ray Tracer (1)
- Ray Tracing (1)
- Ray tracing (1)
- Realistisches Kameramodell (1)
- Rich Internet Application (1)
- Schatten (1)
- Schnee (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Shattering (1)
- Simulation (1)
- Spaß (1)
- Stadt (1)
- Stadtmodelle (1)
- Sterne (1)
- Stilisierung (1)
- Subsurface Scattering (1)
- Tesseract (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tourism (1)
- Trackingsystem (1)
- Translation (1)
- Triangulierung (1)
- Umgebungslicht (1)
- Uniforme Raumunterteilung (1)
- User Interface (1)
- VR (1)
- Virtuelle Menschen (1)
- Volumen (1)
- Volumenrendering (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- Weibliches Publikum (1)
- Whiteboard (1)
- Wiimote (1)
- Wolkensimulation (1)
- Zerbrechen (1)
- area light (1)
- augmented reality (1)
- computer games (1)
- flow (1)
- fur rendering (1)
- general purpose (1)
- graphics card (1)
- hybride App (1)
- indirect lighting (1)
- indirektes Licht (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- line space (1)
- markerless tracking (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- octree texture (1)
- physics simulation (1)
- projektives Malen (1)
- prozedural (1)
- ray casting (1)
- ray tracing (1)
- raycasting (1)
- raytracing (1)
- rigid body (1)
- rtx (1)
- snow (1)
- soft shadow (1)
- texturing (1)
- virtual human (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- vulkan (1)
- Übersetzung (1)
Institut
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
Motion Capture bezeichnet das Aufnehmen, Weiterverarbeiten und auf ein 3D Modell Übertragen von reellen Bewegungen. Nicht nur in der Film- und Spieleindustrie schafft Motion Capture heute einen nicht mehr wegzudenkende Realismus in der Bewegung von Mensch und Tier. Im Kontext der Robotik, der medizinischen Bewegunsthearpie, sowie in AR und VR wird Motion Capture extensiv genutzt. Neben den etablierten optischen Verfah- ren kommen aber gerade in den letzen drei Bereichen auch vermehrt alternative Systeme, die auf Intertialsystemen (IMUs) basieren zum Einsatz, da sie nicht auf externe Kameras angewiesen sind und somit den Bewegungsraum deutlich weniger beschränken.
Schnell vorranschreitender technischer Fortschritt in der Herstellung solcher IMUs, erlaubt den Bau kleiner Sensoren die am Körper getragen werden können und die Bewegung an einen Computer übertragen. Die Entwicklung in der Anwendung von Inertialsystemen auf den Bereich des Motion Capture, steckt allerdings noch in den Kinderschuhen. Probleme wie Drift können bis- her nur durch zusätzliche Hardware, zur Korrektur der Daten, minimiert werden.
In der folgenden Masterarbeit wird ein IMU basiertes Motion Capture System aufgebaut. Dies umfasst den Bau der Hardware sowie die softwa- reseitige Verarbeitung der erhaltenen Bewegungsinformationen und deren Übertragung auf ein 3D Modell.
In der Computergrafik stellte die Berechnung von Reflexionen lange ein
Problem dar. Doch mit der ständigen Weiterentwicklung der Hardware
und Vorstellung neuer Verfahren ist eine realitätsnahe,
echtzeitfähige(durchschnittlich 60 FPS) Berechnung von Reflexionen möglich. In der folgenden Ausarbeitung werden verschiedene Reflexionsverfahren vorgestellt. Alle mathematischen und physikalischen Grundlagen werden gegeben, um die Algorithmen nachvollziehen zu können. Da eine Reflexion immer das Abtasten eines reflektierten Vektors bedeutet, werden zwei verschiedene Abtastungsverfahren für blickabhängige Reflexionen vorgestellt und anschließend implementiert. Zuletzt werden die Verfahren auf Basis von Qualität und Performance gegenübergestellt.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
Die vorliegende Arbeit stellt eine Rigid-Body Physik-Engine vor, deren Schwerpunkt auf der Kollisionserkennung per GPU liegt. Die steigende Performanz und Zugänglichkeit moderner Grafikkarten sorgt dafür, dass sich diese auch für Algorithmen nutzen lassen, die nicht nur zur Bilderzeugung gedacht sind. Dieser Vorteil wird genutzt, um eine effiziente auf Partikeln basierende Kollisionserkennung zu implementieren. Mit Hilfe einer Testumgebung wird dann der Performance-Unterschied zwischen CPU und GPU dargestellt.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Augmented Reality besitzt viele denkbare Anwendungsbereiche, in denen Alltag oder Arbeitsprozesse vereinfacht werden können. Dadurch, dass viele Hersteller sehr unterschiedliche Augmented Reality Brillen anbieten, wird die Auswahl des richtigen Systems und eine systemübergreifende Entwicklung jedoch erschwert. Im Rahmen dieser Bachelorarbeit wird daher eine Anwendung entwickelt, mit der Augmented Reality Brillen auf einem Virtual Reality System simuliert werden können. Damit soll eine plattformübergreifende Entwicklung sowie die Auswahl des richtigen Systems vereinfacht werden.
Da die Simulation für mobile Endgeräte konzipiert werden soll, sollen möglichst realistische Umgebungen als Panorama vorgerendert werden können. Um diese auf Virtual Reality Systemen als stereoskopische Bilder darstellen zu können, werden verschiedene Verfahren zur Konvertierung in solche vorgestellt. Es wird ein Editor entwickelt, mit dem verschiedene Szenarien erstellt, Augmented Reality Systeme konfiguriert und schließlich auf einem Virtual Reality System angezeigt werden können. Abschließend wird untersucht, wie gut die Simulation gelungen ist und welche Verbesserungsmöglichkeiten es gibt.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.