Institut für Computervisualistik
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (100)
- Diplomarbeit (81)
- Studienarbeit (76)
- Masterarbeit (46)
- Dissertation (18)
- Ausgabe (Heft) zu einer Zeitschrift (12)
- Konferenzveröffentlichung (2)
Sprache
- Deutsch (282)
- Englisch (51)
- Mehrsprachig (2)
Gehört zur Bibliographie
- nein (335) (entfernen)
Schlagworte
- Bildverarbeitung (16)
- Augmented Reality (13)
- Robotik (10)
- Computergrafik (9)
- Computergraphik (9)
- Computervisualistik (9)
- OpenGL (8)
- GPGPU (5)
- GPU (5)
- Line Space (5)
Institut
Die Material Point Method (MPM) hat sich in der Computergrafik als äußerst fähige Simulationsmethode erwiesen, die in der Lage ist ansonsten schwierig zu animierende Materialien zu modellieren [1, 2]. Abgesehen von der Simulation einzelner Materialien stellt die Simulation mehrerer Materialien und ihrer Interaktion weitere Herausforderungen bereit. Dies ist Thema dieser Arbeit. Es wird gezeigt, dass die MPM durch die Fähigkeit Eigenkollisionen implizit handzuhaben ebenfalls in der Lage ist Kollisionen zwischen Objekten verschiedenster Materialien zu beschreiben, selbst, wenn verschiedene Materialmodelle eingesetzt werden. Dies wird dann um die Interaktion poröser Materialien wie in [3] erweitert, was ebenfalls gut mit der MPM integriert. Außerdem wird gezeigt das MPM auf Basis eines einzelnen Gitters als Untermenge dieses Mehrgitterverfahrens betrachtet werden kann, sodass man das gleiche Verhalten auch mit mehreren Gittern modellieren kann. Die poröse Interaktion wird auf beliebige Materialien erweitert, einschließlich eines frei formulierbaren Materialinteraktionsterms. Das Resultat ist ein flexibles, benutzersteuerbares Framework das unabhängig vom Materialmodell ist. Zusätzlich wird eine einfache GPU-Implementation der MPM vorgestellt, die die Rasterisierungspipeline benutzt um Schreibkonflikte aufzulösen. Anders als andere Implementationen wie [4] ist die vorgestellte Implementation kompatibel mit einer Breite an Hardware.
Efficient Cochlear Implant (CI) surgery requires prior knowledge of the cochlea’s size and its characteristics. This information helps to select suitable implants for different patients. Registered and fused images helps doctors by providing more informative image that takes advantages of different modalities. The cochlea’s small size and complex structure, in addition to the different resolutions and head positions during imaging, reveals a big challenge for the automated registration of the different image modalities. To obtain an automatic measurement of the cochlea length and the volume size, a segmentation method of cochlea medical images is needed. The goal of this dissertation is to introduce new practical and automatic algorithms for the human cochlea multi-modal 3D image registration, fusion, segmentation and analysis. Two novel methods for automatic cochlea image registration (ACIR) and automatic cochlea analysis (ACA) are introduced. The proposed methods crop the input images to the cochlea part and then align the cropped images to obtain the optimal transformation. After that, this transformation is used to align the original images. ACIR and ACA use Mattes mutual information as similarity metric, the adaptive stochastic gradient descent (ASGD) or the stochastic limited memory Broyden–Fletcher–Goldfarb–Shanno (s-LBFGS) optimizer to estimate the parameters of 3D rigid transform. The second stage of nonrigid registration estimates B-spline coefficients that are used in an atlas-model-based segmentation to extract cochlea scalae and the relative measurements of the input image. The image which has segmentation is aligned to the input image to obtain the non-rigid transformation. After that the segmentation of the first image, in addition to point-models are transformed to the input image. The detailed transformed segmentation provides the scala volume size. Using the transformed point-models, the A-value, the central scala lengths, the lateral and the organ of corti scala tympani lengths are computed. The methods have been tested using clinical 3D images of total 67 patients: from Germany (41 patients) and Egypt (26 patients). The atients are of different ages and gender. The number of images used in the experiments is 217, which are multi-modal 3D clinical images from CT, CBCT, and MRI scanners. The proposed methods are compared to the state of the arts ptimizers related medical image registration methods e.g. fast adaptive stochastic gradient descent (FASGD) and efficient preconditioned tochastic gradient descent (EPSGD). The comparison used the root mean squared distance (RMSE) between the ground truth landmarks and the resulted landmarks. The landmarks are located manually by two experts to represent the round window and the top of the cochlea. After obtaining the transformation using ACIR, the landmarks of the moving image are transformed using the resulted transformation and RMSE of the transformed landmarks, and at the same time the fixed image landmarks are computed. I also used the active length of the cochlea implant electrodes to compute the error aroused by the image artifact, and I found out an error ranged from 0.5 mm to 1.12 mm. ACIR method’s RMSE average was 0.36 mm with a standard deviation (SD) of 0.17 mm. The total time average required for registration of an image pair using ACIR was 4.62 seconds with SD of 1.19 seconds. All experiments are repeated 3 times for justifications. Comparing the RMSE of ACIR2017 and ACIR2020 using paired T-test shows no significant difference (p-value = 0.17). The total RMSE average of ACA method was 0.61 mm with a SD of 0.22 mm. The total time average required for analysing an image was 5.21 seconds with SD of 0.93 seconds. The statistical tests show that there is no difference between the results from automatic A-value method and the manual A-value method (p-value = 0.42). There is no difference also between length’s measurements of the left and the right ear sides (p-value > 0.16). Comparing the results from German and Egypt dataset shows there is no difference when using manual or automatic A-value methods (p-value > 0.20). However, there is a significant difference when using ACA2000 method between the German and the Egyptian results (p-value < 0.001). The average time to obtain the segmentation and all measurements was 5.21 second per image. The cochlea scala tympani volume size ranged from 38.98 mm3 to 57.67 mm3 . The combined scala media and scala vestibuli volume size ranged from 34.98 mm 3 to 49.3 mm 3 . The overall volume size of the cochlea should range from 73.96 mm 3 to 106.97 mm 3 . The lateral wall length of scala tympani ranged from 42.93 mm to 47.19 mm. The organ-of-Corti length of scala tympani ranged from 31.11 mm to 34.08 mm. Using the A-value method, the lateral length of scala tympani ranged from 36.69 mm to 45.91 mm. The organ-of-Corti length of scala tympani ranged from 29.12 mm to 39.05 mm. The length from ACA2020 method can be visualised and has a well-defined endpoints. The ACA2020 method works on different modalities and different images despite the noise level or the resolution. In the other hand, the A-value method works neither on MRI nor noisy images. Hence, ACA2020 method may provide more reliable and accurate measurement than the A-value method. The source-code and the datasets are made publicly available to help reproduction and validation of my result.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
In einer Welt, in der mittlerweile "Die Cloud" als Lösung für nahezu alles angepriesen wird, stellt sich immer häufiger die Frage, ob man seine persönlichen Daten einem Fremden anvertrauen möchte, oder sie doch lieber unter der eigenen Kontrolle behält. Für die Befürworter der letzten Option steht "ownCloud" als freies Softwarepaket zur Verfügung, um eine eigene Cloud aufzusetzen und ihre Inhalte mit Anderen zu teilen.
Um das Teilen von Lernwerkzeugen zu vereinheitlichen und damit zu vereinfachen, wurde von IMS GLOBAL die "Learning Tools Interoperability" Spezifikation - kurz LTI - entwickelt. Diese wird inzwischen von einer zunehmenden Anzahl von Lernmanagementsystemen und Lernressourcen unterstützt. Eine interessante Herausforderung ist daher, zu untersuchen, ob und wie man ownCloud mit verschiedenen bestehenden Lernwerkzeugen mittels LTI verbinden und daraus Nutzen ziehen kann.
Ziel dieser Arbeit ist es, ein Plugin für ownCloud zu konzeptionieren und zu entwickeln, das die Kommunikation mit Lernwerkzeugen per LTI
ermöglicht. Dabei soll sowohl die Consumer- als auch die Providerseite mit einem Proof of Concept berücksichtigt werden, um jeweils die Möglichkeiten und Grenzen dieser Verbindungen zu untersuchen.
Mit dem Erscheinen moderner Virtual Reality (VR) Headsets auf dem Verbrauchermarkt, gab es den bisher größten Aufschwung in der Geschichte der VR Technologie. Damit einhergehend rücken aber auch die Problematiken aktueller VR Hardware immer mehr in den Vordergrund. Insbesondere die Steuerung in VR war schon immer ein komplexes Thema.
Eine mögliche Lösung bietet die Leap Motion: Ein Hand-Tracking Gerät, welches ursprünglich für den Desktop-Einsatz entwickelt wurde, aber mit dem letzten größeren Softwareupdate an üblichen VR Headsets angebracht werden kann. Dieses Gerät ermöglicht ein sehr genaues Tracking beider Hände und aller Finger. Damit ist es möglich, diese vollständig in der VR Welt zu replizieren und zur Steuerung zu verwenden.
Ziel dieser Arbeit ist es, virtuelle Benutzeroberflächen zu entwerfen, die mit der Leap Motion bedient werden können. Dies soll eine natürliche Interaktion zwischen dem Benutzer und der VR-Umgebung ermöglichen. Danach werden mit Hilfe einer Demoanwendung Probanden-Tests durchgeführt, um ihre Leistung zu bewerten und mit herkömmlichen VR-Reglern zu vergleichen.
Zunächst soll das Thema Non-Photorealistic Rendering vorgestellt werden, bevor auf die Theorie der implementierten Verfahren eingegangen wird. Im Vergleich zur klassischen Graphik-Pipeline wird anschließend auf die Pipeline-Stufen eingegangen, die sich bei moderner Graphikhardware programmieren lassen. Mit Cg wird eine Shader-Hochsprache präsentiert, die zur Programmierung von Graphikkarten eingesetzt wird. Danach wird die Graphikbibliothek Direct3D und das Framework DXUT vorgestellt. Vom softwaretechnischen Entwurf ausgehend, wird die Implementierung der einzelnen Verfahren des Non-Photorealistic Rendering dargestellt. Anschließend wird die Planung und Realisierung der Benutzerschnittstelle erläutert. Die erzielten Ergebnisse werden anhand von Bildschirmphotos aufgezeigt und es wird kurz auf die Darstellungsgeschwindigkeit eingegangen. Abschließend sollen sinnvolle Erweiterungen des Programms und interessante Verfahren, die nicht implementiert wurden, erläutert werden.
Diese Bachelorarbeit erforscht eine Methode zur 3D-Objekterkennung und Posenschätzung, basierend auf dem Punkte-Paare-Eigenschaften-Verfahren (PPE) von Drost et. al. [Dro+10]. Die Methoden der Posenschätzung haben sich in den letzten Jahre zwar deutlich verbessert, stellen jedoch weiterhin ein zentrales Problem im Bereich der Computervisualistik dar. Im Rahmen dieser Arbeit wurde ein Programm implementiert, welches Punktewolkenszenen als Ausgangspunkt erhält und daraus eine Objekterkennung und Posenschätzung durchführt. Das Programm deckt alle Schritte eines Objekterkennungsprogramm ab, indem es 3D-Modelle von Objekten verarbeitet, um deren PPE zu extrahieren. Diese Eigenschaften werden gruppiert und in einer Tabelle gespeichert. Anhand des Auswahlverfahrens, bei dem die Übereinstimmung der Eigenschaften überprüft wird, können potenzielle Posen des Objekts ermittelt werden. Die Posen mit der größten Übereinstimmung werden miteinander verglichen, um ähnliche Posen zu gruppieren. Die Gruppen mit der höchsten Übereinstimmung werden erneut überprüft, sodass am Ende nur eine Pose ausgewählt wird. Das Programm wurde anhand von Real– und Simulationsdaten Daten getestet. Die erhaltenen Ergebnisse wurden anschließend analysiert und evaluiert.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.