004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2009 (68) (entfernen)
Dokumenttyp
- Diplomarbeit (27)
- Studienarbeit (20)
- Bachelorarbeit (8)
- Ausgabe (Heft) zu einer Zeitschrift (8)
- Dissertation (3)
- Masterarbeit (2)
Sprache
- Deutsch (68) (entfernen)
Schlagworte
- Semantic Web (3)
- Autonomes Robotersystem (2)
- Computersimulation (2)
- Echtzeitsystem (2)
- Evaluation (2)
- High dynamic Range (2)
- Instant Messaging (2)
- Objektverfolgung (2)
- Robotik (2)
- Semantic Desktop (2)
- Shader (2)
- Wiimote (2)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3D-Videospiel (1)
- ARIS (1)
- Administration (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Algorithmus (1)
- Analyse (1)
- Analyse durch Synthese (1)
- Anhänger (1)
- Anwendungsintegration (1)
- Anzeige (1)
- Architekturbewertung (1)
- Augenblick-SDK (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Automatische Klassifikation (1)
- Beleuchtungsverfahren (1)
- Benutzerprofil (1)
- Bilderkennung (1)
- Bildsensor (1)
- Bordinstrument (1)
- Business Intelligence (1)
- CMS (1)
- CSCA (1)
- CT-Datensätze (1)
- Casual Game (1)
- Chiffrierung (1)
- Cicero (1)
- Cisco Catalyst 3500XL (1)
- CollaborativeWriting (1)
- Computer Supported Cooperative Work (1)
- Computergraphik (1)
- Computerspiel (1)
- Computertomographie (1)
- CosiMail (1)
- Datenanalyse (1)
- Desktop (1)
- Diffie-Hellman-Algorithmus (1)
- Displacement Mapping (1)
- Display (1)
- Dreidimensionales Modell (1)
- E-Mail (1)
- EEG (1)
- EMIL-S (1)
- Echtzeit Anwendung (1)
- Einstellung (1)
- Elektroencephalographie (1)
- EmIL (1)
- Empfehlung (1)
- Empirische Sozialforschung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise-Resource-Planning (1)
- Erstgebärende (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Experiment (1)
- Extension (1)
- FPIC (1)
- Fahrsimulator (1)
- Fahrzeug (1)
- Faktorenanalyse (1)
- Field programmable gate array (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Foils <Programm> (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frau (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Funktionelle NMR-Tomographie (1)
- GPU (1)
- GPU - Raycasting (1)
- GReTL (1)
- Gaps (1)
- Geburt (1)
- Geburtshaus (1)
- Geometry (1)
- Geometry-Shader (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- GraphUML (1)
- Graphpipes (1)
- Handlungsempfehlungen (1)
- Hausgeburt (1)
- Hebamme (1)
- Interaktion (1)
- Interaktives Fernsehen (1)
- Internet (1)
- Interoperabilität (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- JGraLab (1)
- Jabber (1)
- Jabber <Programm> (1)
- Java (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Katadioptrisches Stereosystem (1)
- Kohärenzanalyse (1)
- Kundenmanagement (1)
- Leistungsmessung (1)
- Lichttransport (1)
- Linux (1)
- Logistik (1)
- Mann-Whitney (1)
- Markerloses Tracking (1)
- Matching-Verfahren (1)
- Mehrprozessorsystem (1)
- Merkmalsbewertung (1)
- Metric based Icp (1)
- Micro Finance (1)
- Mikroskopie (1)
- Modellbasiertes Tracking (1)
- Modellfahrzeug (1)
- Modellierung (1)
- Modelltransformation (1)
- Modulare Softwarearchitektur (1)
- Musteranalyse (1)
- Mustererkennung (1)
- NURBS (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Navigation (1)
- Networked Graphs (1)
- Netzwerksimulation (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- OGRE (1)
- Oberflächenstruktur (1)
- Oktalbaum (1)
- Online-Befragung (1)
- Online-Überwachung (1)
- Open Source (1)
- Open Source 3D Graphics Engine (1)
- Optisches Mikroskop (1)
- Outsourcing (1)
- Perinatalbogen (1)
- Petri-Netz (1)
- Petri-Netz-Theorie (1)
- Petri-Netze (1)
- Physik (1)
- Physikengine (1)
- Planspiegel-System (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Pose (1)
- Primus (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozessmanagement (1)
- Präsentation (1)
- RDF <Informatik> (1)
- RIP-MTI (1)
- RMIS (1)
- Radiales System (1)
- Rangtest (1)
- Ray tracing (1)
- Real-time computing (1)
- Rechnernetze (1)
- Reengineering (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Restrukturierung (1)
- Risikomanagement-Informationssysteme (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robotersystem (1)
- Router (1)
- Routing Information Protocol (1)
- SIMD (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- STP (1)
- Scanmatching (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Segmentierung (1)
- Semantisches Wiki (1)
- Serdar Ayalp (1)
- Service-Oriented Architectures (SOA) (1)
- Simulation (1)
- Software (1)
- Software Engineering (1)
- Spiel (1)
- Spielkonsole (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- TGraph (1)
- Tageslichtprojektor (1)
- Textur-Mapping (1)
- Thunderbird <Programm> (1)
- Tone Mapping (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transform Feedback (1)
- Transformation (1)
- Triangulierung (1)
- Umfrage (1)
- United Internet AG (1)
- Unternehmensarchitektur (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VLAN (1)
- VNUML (1)
- VOXEL (1)
- VTP (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Video-Installation (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Square (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtualisierung (1)
- Visuelle Installation (1)
- Volume Rendering (1)
- Volumen (1)
- Volumendaten (1)
- Volumenrendering (1)
- Volumenvisualisierung (1)
- Webcam (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Werbeform (1)
- Werbung (1)
- Whiteboard (1)
- Wii-Balance Board (1)
- Wiki (1)
- Wikipedia (1)
- Wilcoxon-Rangsummentest (1)
- Wolkensimulation (1)
- Workflow (1)
- World of Warcraft (1)
- X-Cosim (1)
- XMPP (1)
- XSD (1)
- XTPeer (1)
- Zielverfolgung (1)
- Zufriedenheit (1)
- advertisements (1)
- attitude (1)
- engine (1)
- experiment (1)
- factor analysis (1)
- game (1)
- interactive (1)
- interaktiv (1)
- legacy software (1)
- mann-whitney (1)
- midwife (1)
- migration (1)
- multiprocessing (1)
- out-of-hospital birth (1)
- parallel computing (1)
- perinatal (1)
- physics (1)
- pregnancy (1)
- real-time computing (1)
Institut
Diese Bachelorarbeit behandelt die Erweiterung eines Instant Messenger um die Funktion einer verschlüsselten Audio-/Videokonferenz. Es werden verschiedene zu diesem Zweck nutzbare Techniken beschrieben und gegenübergestellt. Besonderer Wert wird darauf gelegt, die Verbindung dementsprechend zu sichern, dass auch vertrauliche Informationen übermittelt werden können. Letztlich wird die Implementierung in Java für den Instant Messenger "Spark" sowie die Integration der Konferenz in ein eVoting-Plugin erläutert.
Die Studienarbeit soll eine Vorstellung davon vermitteln, in welcher ökonomischen Größenordnung Kopierschutzmaßnahmen anzusiedeln sind. Es wird erläutert, dass die Wirksamkeit von Schutzmechanismen neben der eigentlichen Funktionalität einen ausschlaggebenden Einfluss auf die Wirtschaftlichkeit eines Produktes nimmt. Dieser Grundsatz liegt in der Verantwortung der Softwarehersteller. Gesetzliche Rahmenbedingungen im Urheberrecht regeln den Umgang mit digitalen Gütern von staatlicher Seite aus. Das Zusammenspiel der beiden Institutionen, Staat und Privatunternehmen, wird in dieser Arbeit untersucht. Beschrieben wird ein Überblick über Schutzmechanismen von Computerspielen, indem die aktuell gebräuchlichen Kopierschutzmechanismen in ihrer Funktionsweise und Wirksamkeit vorgestellt werden. Ein anschließender Vergleich soll Aufschluss auf mögliche Unterschiede oder Gemeinsamkeiten geben. Anhand der hierbei gewonnenen Erkenntnisse folgt dann eine kritische Beurteilung mit einem Ausblick auf zukünftige Trends und Entwicklungen zur Vermeidung der Softwarepiraterie. Diese Arbeit soll nicht als Anleitung zur Softwarepiraterie missverstanden werden und soll auch nicht als Anregung dazu missbraucht werden.
Markerloses Tracking im Bereich des modellbasierten Ansatzes Analyse durch Synthese nutzt den Vergleich von Kamerabild mit einer synthetischen Computergraphik, um die Kamerapose zu bestimmen. Hier werden ein High Dynamic Range Videokamerabild und eine photorealistische Computergraphik verglichen. Die Computergraphik ist Ergebnis einer Lichtsimulation basierend auf HDR Bildern einer Kamera mit Fischaugenobjektiv. Auf Basis der Ähnlichkeit von natürlichen Merkmalen soll die Relevanz verschiedener Rendering Parameter untersucht werden.
This paper proposes model-driven techniques to extend IBM- SOMA method towards migrating legacy systems into Service-Oriented Architectures (SOA). The proposal explores how graph-based querying and transformation techniques enable the integration of legacy assets into a new SOA. The presented approach is applied to the identification and migration of services in an open source Java software system.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Ziel dieser Forschungsarbeit ist die Auswahl und Evaluierung von Open-Source ERPSystemen auf effiziente Anwendbarkeit in Unternehmen zum Zwecke des Aufbaus eines "ERP-Future-Labs", in welchem mittelständische Handelsunternehmen das/die installierte(n) System(e) testen können. Den Projektabschluss bildet hierbei die Installation eines lauffähigen Systems, auf welchem die vom Auftraggeber vorgegebenen Geschäftsprozesse abgewickelt werden können. Ferner sollen die Auftraggeber auf dem System geschult, eine Dokumentation der Software (Installation/Bedienung) und des Projekts erstellt werden.
Performanz von RIP-MTIfi
(2009)
Diese Diplomarbeit beschäftigt sich mit der Performanz von RIP-MTI, insbesondere mit der Performanz der Schleifenerkennung. Ziel der Arbeit ist es, die Zeitdauer der Schleifenerkennung von RIP-MTI zu untersuchen und Probleme, welche bei der Erkennung von Schleifen auftreten könen, aufzudecken und zu lösen.
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
Pose-Tracking
(2009)
Die bildbasierte automatische Bestimmung der Pose, d. h. der Position und Blickrichtung, einer Kamera in derWelt, ist eine relevante, aber immer noch unzureichend gelöste Aufgabe im Rechnersehen. In dem diesem Bericht zugrunde liegenden Projekt werden höhere markante Merkmale in den Bildern sicherer lokalisiert, sowie deren semantische Signifikanz vom Rechner bestimmt. Eine Posebestimmung wird durch eine Registrierung der elementaren Bestandteile dieser markanten Merkmale im Bild mit Merkmalen im 3-D-Modell erreicht. Dazu werden neue Algorithmen zur Detektion, Lokalisation und Registrierung der markanten Merkmale entwickelt bzw. vorhandene Algorithmen weiter verbessert. Modelle, wie sie aus der Rekonstruktion von Mehrfachansichten entstehen, werden durch weitere Semantik angereichert. Als Anwendungsszenario wird die Posebestimmung auf dem Campusgelände unter Verwendung von Bildern und einem semantischen CG-Modell des Campus gewählt. Die allgemeinen Verfahren werden an diesem Beispiel getestet und ihre Tragfähigkeit wird in Experimenten belegt. Im modularen System entstehen problemunabhängige Einzelbausteine zur Detektion markanter Merkmale und zur 3-D-Rekonstruktion und Posebestimmung aus Merkmalen, Punkten und Linien. Damit wird belegt, dass eine robuste Detektion markanter Merkmale möglich ist und zu einer effektiven Rekonstruktion und Posebestimmung auch in teilweise wenig strukturierten Außengebieten genutzt werden kann.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
Im Rahmen dieser Diplomarbeit wurde ein Raytracer auf Voxel-Octrees für SSE-fähige CPUs implementiert. Als Grundlage diente das Augenblick-SDK der Firma Numenus. Es konnte gezeigt werden dass das Raytracing von Volumendaten exzellent skaliert und sich vor allem für sehr große, statische Datenmengen eignet.
Rissmuster enthalten zahlreiche Informationen über die Entstehung der Risse und können für die Technik oder die Kulturgeschichte von großem Wert sein. So vereinfacht etwa die automatische oder halbautomatische Klassifizierung von Abbildungen solcher Rissmuster die Echtheitsprüfung antiker Artefakte oder die Materialforschung. Teilweise existieren bereits Klassifizierungsverfahren, die sich für die computergestützte Auswertung einsetzen lassen. Da es bislang kein Verfahren zur objektivierten Auswertung und Analyse von Rissmustern gab, entstand 2007 in Zusammenarbeit mit der Stuttgarter Staatlichen Akademie der Bildenden Künste das Projektpraktikum Rissmusteranalyse (Primus), das die automatische Klassifikation von Rissmuster-Aufnahmen ermöglicht. Daran angebunden sollte ein Datenbanksystem die Bilder samt ihrer Analyseergebnisse verwalten und darstellen können. Eine einfach zu bedienende grafische Benutzeroberfläche soll verschiedene Methoden anbieten, die mit jeweils unterschiedlichen Bildverarbeitungsverfahren eine robuste Klassifikation der Rissmuster und den anschließenden Transfer in die Datenbank ermöglichen. Zunächst werden die aktuelle Situation des Projektes Primus und dessen grundlegende Strukturen dargestellt, unter besonderer Berücksichtigung der verwendeten Programmiersprache Qt. Den Schwerpunkt der Arbeit bildet das Redesign der Benutzeroberfläche und deren Erweiterung um neue Komponenten wie Qt-Objekte und einen separaten Tracer.
Das Projekt Ziel der Studienarbeit war, eine physikalisch basierte Echtzeitsimulation eines volumetrischen Fluids in Form einer Rauchentwicklung auf der GPU zu realisieren und diese in eine Echtzeitanwendung zu integrieren. Motivation Mit Hilfe von Fluidsimulationen lassen sich einige der faszinierendst anzuschauenden Naturphänomene wie Rauch, Wolken oder auch Feuer und Wasser realistisch darstellen. Ausserdem könnten mit physikalischbasierten Fluidsimulationen eine große Fülle neuer Interaktionsmöglichkeiten innerhalb einer simulierten Welt realisiert werden. Wasser könnte realistisch fließen und Gegenstände mit sich reißen oder ganze Landschaften überfluten, Wind- und Luftströmungen könnten Segelschiffe antreiben oder sogar zerstörerische Wettereffekte wie Tornados simulieren etc... Die Fluidsimulation Der Rauch kann um Objekte im Fluidvolumen strömen, auf Temperaturunterschiede reagieren und dynamisch beleuchtet werden. Die Fluidsimulation nutzt dabei einen rasterbasierten Ansatz um die Navier-Stokes Gleichungen zu lösen und Partikel durch das Volumen zu transportieren. Objekte können voxelisiert werden und den Fluss im Fluidvolumen beeinflussen. Eine Temperatursimulation sorgt für eine realistische Rauchentwicklung, in dem Partikel, die sich von eine Wärmequelle entfernen zu Boden fallen. Der Rauch kann zudem durch die approximierte Simulation von Licht-Streuungseffekten (scattering) dynamisch und realitätsnah in Echtzeit beleuchtet werden Für eine möglichst artefaktfreie dreidimensionale Visualisierung des Volumens kommt als Rendering-Verfahren View-aligned Volume Slicing zum Einsatz. Ergebnis Das Ergebnis der Arbeit zeigt, Fluidsimulationen lassen sich heute mit Hilfe der GPU in Echtzeit in erstaunlicher Qualität darstellen und sogar in Echtzeitanwendungen integrieren. Es wurde neben der Fluidsimulation ein OpenGL-Renderer als Echtzeitanwendung entworfen, um die Möglichkeiten der Integration einer Fluidsimulation in eine solche Anwendung zu demonstrieren. In dem Programm können zudem zahlreiche Parameter der Fluidsimulation zur Laufzeit manipuliert und gespeichert werden. Der Nutzer kann sich so mit den vielfältigen Möglichkeiten und faszinierenden Effekten einer Fluidsimulation vertraut machen.
In dieser Arbeit wurde untersucht, wie sich das bestehende Modell der Kabelsimulation verbessern lässt. Hierfür wurde zunächst analysiert, welches die Einflussfaktoren auf eine Simulation sind. Des Weiteren wurde der Einfluss der Rand- und Nebenbedingungen auf die Genauigkeit der Verlaufssimulation untersucht.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
Im Rahmen dieser Diplomarbeit wird ein Transaktionskonzept für die aktuelle Implementationsversion der TGraphenbibliothek JGraLab Carnotaurus umgesetzt. Nach einer grundlegenden Einführung in das Konzept der TGraphen werden die relevanten Implementationsdetails der TGraphenbibliothek erläutert. Anschließend erfolgt ein konzeptueller Entwurf, in dem die formalen Grundlagen des Transaktionskonzepts beschrieben werden. Das aus der Datenbankwelt bekannte ACID-Paradigma für Transaktionen dient dabei als wissenschaftliche Grundlage. In einem nächsten Schritt erfolgt der objektorientierte Feinentwurf der Integration des zu entwickelnden Transaktionskonzepts in das vorhandene Gesamtsystem, anhand dessen die Implementation durchgeführt wird. Eine Analyse und Bewertung des umgesetzten Transaktionskonzepts (vor allem im Hinblick auf den Speicherverbrauch und das Laufzeitverhalten) schließen die Arbeit ab.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.