Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1139)
- Englisch (547)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (145)
- Institut für Management (117)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Das Ziel der vorliegenden Promotionsarbeit lag darin, physiologische (Herzratenvariabilitätsmaße) und biomechanische Parameter (Schuhmerkmale) und deren mögliche vorhersagende Wirkung auf psychologische Stimmungszustände zu untersuchen. 420 Teilnehmer (275 männlich und 145 weiblich, Alter: M=34.7 Jahre ± 9.7) nahmen an einem 60-minütigen langsamen Ausdauerlauf teil, währenddessen sie Fragen über ein mobiles Antwort- und Aufnahmegerät eingespielt bekamen. Wir untersuchten unterschiedliche Facetten von Stimmungszuständen, physiologischen und biomechanischen Parametern. Mittels einer latenten Wachstumskurvenanalyse wurden mögliche kreuzverzögerte Effekte untersucht. Ergebnisse zeigten unter anderem statistisch signifikante Zusammenhänge (p ≤.05) für die Vorhersage psychologischer Stimmungszustände aus den biomechanischen Maßen, sowie die Vorhersage physiologischer Parameter aus diesen psychologischen Stimmungszuständen.
Potential vermögender Kunden
(2011)
Diese Bachelorarbeit beschäftigt sich mit dem Potential vermögender Kunden im Private-Banking Sektor und den in diesem Bereich angebotenen Finanzdienstleistungen. Hierzu wird unter anderem ein Vergleich des internationalen Potentials mit dem Potential im deutschsprachigen Raum, mit Hilfe von Zeitreihen, durchgeführt.
Der Bezugszeitraum liegt zwischen den Jahren 2000 und 2009. In dieser Zeit kam es, gerade durch die Finanzkrise undrnderen Folgen, zu Kapitalumverteilungen. Die sich aus dieser Analyse ergebenden Veränderungen des Potentials werden daraufhin im Bezug auf die Umgestaltungsmöglichkeiten im Bereich der Finanzdienstleistungen in diesem Sektor angewandt. Hierbei steht das Erreichen eines hohen Servicegrades im Vordergrund, denn dies ist einer der Hauptgründe, warum eine Kunde bei einer Bank bleibt und diese nicht wechselt. Zudem werden neue Möglichkeiten im Banksektor erwähnt und auf die Auswirkungen unterschiedlicher Berater-Entlohnungsmodelle eingegangen.
Die vorliegende Dissertation untersucht die Entstehung von Dialekten innerhalb des in dieser Arbeit entworfenen Modells einer Multi-Agenten-Simulation, basierend auf neuronalen Netzen. Zunächst werden die linguistischen Grundlagen detailliert dargestellt. Dazu gehört neben der Diskussion einiger Definitionen von Sprache ein Überblick über die sprachlichen Evolutionsstufen, eine Übersicht der Bestandteile menschlicher Hochsprachen mitsamt den bekannten Möglichkeiten ihrer Veränderung und eine Übersicht tierischer Sprachen mit kommunikativer Funktion und ihrer Dialektbildung.
Im Anschluss werden die Grundlagen der Informatik und Mathematik erläutert. Diese umfassen neben den Begriffen Modell und Simulation den Aufbau einer Multi-Agenten-Simulation und die Funktionsweise künstlicher neuronaler Netze. Aus den hier genannten Grundlagen wird daraufhin ausführlich das Simulationsmodell dieser Arbeit hergeleitet und beschrieben.
Die Ergebnisse vieler hundert verschiedener Simulationsdurchläufe werden im Anschluss erläutert. So werden die im Modell definierten Störfaktoren einzeln untersucht und in Werteintervalle mit unterschiedlichen Auswirkungen eingeteilt. Weiterhin werden vorhandene Wechselwirkungen der Faktoren aufgezeigt und der Prozess der Sprachwiedervereinigung nach einer vorherigen Dialektspaltung gezeigt.
Einem Fazit und Ausblick folgen als Anhänge Anforderungsdefinition, Entwurf, Architektur, eine detaillierte Erläuterung der Implementierung und ein englischsprachiges Benutzerhandbuch des Werkzeugs DiaLex. DiaLex ist ein komplett in Java konzipiertes und implementiertes Programm und bietet dem Benutzer die Möglichkeit, den Einfluss verschiedener Störfaktoren auf die Dialektbildung innerhalb einer gemeinsam genutzten Sprache einer oder mehrerer Agentengemeinschaften zu simulieren und zu analysieren.
Die Arbeit entstand im Zeitraum Oktober 2007 bis Juni 2010 an der Universität Koblenz-Landau.
Graphen sind eine gute Wahl um strukturierte Daten zu repräsentieren. TGraphen (typisierte, attributierte, geordnete und gerichtete Graphen) sind eine sehr generische Graphenart, die in vielen Bereichen verwendet werden können. Das Java Graphenlabor (JGraLab) bietet eine effiziente Implementierung von TGraphen mit all ihren Eigenschaften. Zusätzlich stellt es, unter anderem, die Anfragesprache GReQL2 zur Verfügung, die dazu verwendet werden kann, Daten aus einem Graphen zu extrahieren. Es verfügt jedoch nicht über eine generische Bibliothek von gängigen Graphalgorithmen. Diese Studienarbeit ergänzt JGraLab durch eine generische Algorithmenbibliothek namens Algolib, die eine generische und erweiterbare Implementierung einiger wichtiger gängiger Graphalgorithmen enthält. Das Hauptaugenmerk dieser Arbeit liegt auf der Generizität von Algolib, ihrer Erweiterbarkeit und der Methoden der Softwaretechnik die benutzt wurden um beides zu erreichen. Algolib ist auf zwei Weisen erweiterbar. Bereits enthaltene Algorithmen können erweitert werden um speziellere Probleme zu lösen und weitere Algorithmen können auf einfache Weise der Bibliothek hinzugefügt werden.
Im Rahmen dieser Abschlußarbeit wurde ein Plugin zur Visualisierung/Simulation von Public-Key-Infrastrukturen für die Kryptographie-Lernsoftware JCryp-Tool entwickelt und implementiert. Public-Key-Infrastrukturen stellen einen Bereich in der Kryptographie dar, mit dem viele Anwender von IT-Systemen in Berührung kommen.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
Ein mobiles System, das sich automatisiert im Outdoor-Bereich fortbewegen soll, muss dafür über ausreichende Kenntnisse des umliegenden Terrains verfügen. Zur Analyse des Terrains werden hierbei häufig ein oder mehrere Laserentfernungsmesser, teilweise auch in Kombination mit Kameras verwendet. Probleme entstehen bei lückenhaften oder verrauschten Daten, da dies zu einer fehlerhaften Bestimmung des Geländes führen kann.
Diese Arbeit hat das Ziel ein bereits vorhandenes Verfahren zu erweitern. Dieses basiert auf 3D-Daten, ermittelt durch einen 3D-Laserscanner und soll um eine kontextsensitive Komponente und Daten anderer Sensoren ergänzt werden. Die erste Erweiterung besteht aus einem Markov-Zufallsfeld, welches zum Modellieren der Nachbarschaftsbeziehungen der einzelnen Terrainabschnitte verwendet wird und somit zur Segmentierung eingesetzt werden kann.
Als zweite Erweiterung werden die Laserdaten mit Kamerabildern fusioniert,um so die Verwendung zusätzlicher Terrainmerkmale zu ermöglichen.
Über 10.000 verschiedene organische Substanzen wie Arzneistoffe, Inhaltsstoffe von Körperpflegemitteln und Biozide werden regelmäßig im Alltag eingesetzt. Die meisten Substanzen gelangen nach ihrer Verwendung in das häusliche Abwasser. Bisherige wissenschaftliche Untersuchungen haben ergeben, dass eine konventionelle biologische Abwasserreinigung in kommunalen Kläranlagen keine ausreichende Barriere für die Emission dieser anthropogenen Stoffe in die Oberflächengewässer darstellt.
Dies birgt unvorhersehbare Risiken für die aquatischen Lebensgemeinschaften und die Trinkwasserversorgung. Hinsichtlich ihres Vorkommens und Verhaltens in kommunalen Kläranlagen besteht daher insbesondere für erst kürzlich eingeführte und/oder in der Umwelt nachgewiesene Spurenstoffe (sogenannte "neuartige" Spurenstoffe, engl.: "emerging micropollutants") ein großer Forschungsbedarf. Um ein möglichst umfassendes Bild vom Verhalten neuartiger organischer Spurenstoffe in der kommunalen Abwasserbehandlung zu erhalten, wurden im Rahmen dieser Dissertation die folgenden Substanzklassen, welche ein weites Spektrum an physiko-chemischen Eigenschaften aufweisen, untersucht: Arzneistoffe (Betablocker und psychoaktive Substanzen), UV-Filtersubstanzen, Vulkanisationsbeschleuniger (Benzothiazole), Biozide (Antischuppenmittel, Konservierungsmittel, Desinfektionsmittel) und Pestizide (Phenylharnstoff- und Triazinherbizide).
Im Institut MTI Mittelrhein wird untersucht, wie sich Training und Erfahrung auf die Bewegung und Bewegungsplanung im Sport auswirken. Im Rahmen dieser Untersuchungen soll das Bewegungsverhalten eines Kletterers an einer Sportkletterwand analysiert werden. Das Ziel der Arbeit ist es, die Bewegungen eines Kletterers in Videoaufnahmen zu segmentieren und markerbasiert zu detektieren. Die segmentierten Marker aus jedem Bild werden mit einem Trackingverfahren über die Zeit verfolgt und die Bewegungsspuren in einem geeigneten Format für die Bewegungsanalyse-Software Simi Motion exportiert, um dort weitere Analysen zu ermöglichen.
In dieser Arbeit wird ein skelettbasiertes Matching-Verfahren für 2D-Objekte vorgestellt. Zunächst werden aktuelle Ansätze zum Matchen von Objekten vorgestellt, anschließend werden die Grundlagen von skelettbasiertem Matching erklärt. Ein skelettbasiertes Verfahren wurde im Rahmen dieser Arbeit gemäß dem vorliegenden Original-Paper neu implementiert. Diese Implementierung wird anhand einer Ähnlichkeitssuche in drei Bild-Datenbanken evaluiert. Stärken und Schwächen des Verfahrens werden herausgearbeitet. Des weiteren wird der vorgestellte Algorithmus auf Erweiterungen untersucht, die das Matchen von 3D-Objekten ermöglichen sollen. Im speziellen wird das Verfahren auf medizinische Daten angewendet: CT-Aufnahmen der abdominalen Aorta eines Patienten vor und nach einer Operation werden miteinander verglichen. Problemfälle und Erweiterungsansätze für das Matchen von 3D-Objekten im Allgemeinen und von Blutgefäßen im Speziellen werden vorgestellt.