Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (275) (entfernen)
Schlagworte
- Computervisualistik (8)
- OpenGL (7)
- Android (5)
- Computergrafik (5)
- Graphik (4)
- Line Space (4)
- Smartphone (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- C++ (3)
Institut
- Institut für Computervisualistik (100)
- Fachbereich 4 (68)
- Institut für Management (42)
- Institut für Wirtschafts- und Verwaltungsinformatik (32)
- Institut für Informatik (14)
- Institut für Softwaretechnik (8)
- Institute for Web Science and Technologies (3)
- Fachbereich 6 (1)
- Fachbereich 7 (1)
- Institut für Evangelische Theologie (1)
In dieser Arbeit werden auf der Basis des aktuellen Forschungsstandes der Politolinguistik die Relevanz und Erklärungsmöglichkeiten politolinguistischer Analysen für das Verständnis der Sprachverwendung und Sprachprägung in der Politik am Beispiel der rechtspopulistischen Rhetorik der Alternative für Deutschland thematisiert. Die Arbeit folgt im Allgemeinen der Fragestellung, inwiefern die Politolinguistik die Sprachverwendung in der Politik und die dort entstehenden, sprachlichen Prägungen lexikalisch analysieren und mithilfe der politolinguistischen Lexikanalyse die durch politische Akteure vermittelten, politischen Intentionen offenlegen kann. Im Besonderen wird sich daran die Frage anschließen, auf welche Weise sich mit den Analysewerkzeugen der politolinguistischen Lexikanalyse das Kurzwahlprogramm der Alternative für Deutschland zur Bundestagswahl 2017 im Hinblick auf ihre rechtspopulistische Rhetorik untersuchen lässt und dortige, lexikalische Prägungsversuche der AfD identifiziert werden können.
Am Schluss der Arbeit steht Erkenntnisfortschritt, der eine deskriptive Erörterung der Relevanz und Möglichkeiten politolinguistischer Lexikanalysen sowie ihrer Werkzeuge für die Untersuchung politischer Sprachverwendung und durch Wortprägungen offenbarter Intentionen beinhaltet, dabei explizit sowohl etablierte als auch neuere Erkenntnisse des Forschungsfeldes miteinbezieht und diese im Hinblick auf die Anwendbarkeit zur Erforschung rechtspopulistischer Rhetorik reflektiert.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Volumetrische Beleuchtung
(2018)
Volumetrische Beleuchtung ist ein verbreitetes Beleuchtungsphänomen in der Natur und trägt in weiten Teilen zu dem realistischen Erscheinen von computergenerierten Bildern bei. Diese Arbeit befasst sich mit den physikalischen Hintergründen dieses Phänomens, listet bekannte Modelle zur Visualisierung von volumetrischer Beleuchtung in der Computergrafik auf und vergleicht anschließend drei Verfahren, mit denen eine volumetrische Beleuchtung mit heutiger Grafikhardware visualisiert werden kann. Diese Verfahren werden anhand einer Implementation in OpenGL hinsichlich ihrer Möglichkeiten und Einschränkungen, sowie ihres Rechenaufwands miteinander verglichen.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
Raytracing mit Vulkan
(2018)
Der Schwerpunkt der vorliegenden Bachelorarbeit war die Entwicklung eines einfachen Raytracerprogrammes unter der Verwendung der Vulkan API, und das Einschätzen des Mehraufwandes im Vergleich zum Performancegewinn. Das Programm wird in dieser Arbeit vorgestellt. Die Vulkan Komponente des Programms wird detailliert erklärt. Anschließend wird das Programm mit einem, unter der Verwendung von OpenGL geschriebenen, ähnlichen Raytracerprogramm verglichen. Beide Programme verwenden dabei den gleichen Raytracer, der im Fragmentshader implementiert ist. Der Test ergibt, dass der mithilfe von Vulkan geschriebene Raytracer deutlich langsamer ist, als das zum Vergleich dienende OpenGL Programm.
Die in den letzten Jahren fortschreitende Digitalisierung hat zur Ausbreitung und Popularisierung von Internet of Things (IoT) Technologie beigetragen (Mattern and Floerkemeier, 2010; Evans, 2013). Darüber hinaus wurde die Gesundheitsdomäne als eine der am stärksten aktiven IoT Bereiche identifiziert (Steele and Clarke, 2013). Die vorliegende Bachelorarbeit gibt einen Überblick über IoT gestützte Gamification und entwickelt ein Framework welches IoT und Gamification im Kontext einer Versicherung kombiniert. Beim Untersuchen von Gamification wurde ein konzeptuelles Modell entwickelt welches insbesondere die Rolle von IoT in einem solchen Ansatz verdeutlicht. Diesbezüglich wurde festgestellt, dass IoT bei der Aufgabenstellung Anwendung findet und diese zum einen in einem großen Rahmen ermöglicht sowie innovative und komplexere Aufgaben erlaubt. In diesem Zusammenhang wurden besonders die Vorteile und Notwendigkeit von tragbaren IoT Geräten erläutert. Eine Stakeholder Analyse beschäftigte sich mit den Vorteilen, welche durch IoT und Gamification erreicht werden können. Hierbei konnten zwei daraus erwachsende Paradigmenwechsel, für Versicherung und Versicherungsnehmer, identifiziert werden. Basierend auf den zuvor gewonnenen Erkenntnissen der Untersuchung der Gamification Ansätze und der Stakeholder Analyse wurde ein IoT gestütztes Gamification Framework entwickelt. Das Framework weißt einen Level-basierten Aufbau auf, welcher den Benutzer entlang des Entwurfsprozess leiten soll. Sowohl das erstellen, als auch das analysieren eines bestehenden Ansatzes ist mit dem Framework möglich. Darüber hinaus wurde das Framework anhand von Pokémon Go instanziiert um mögliche Mängel zu identifizieren und zu erklären. Die vorliegende Bachelorarbeit liefert eine Grundlage auf deren Basis umfassendere kontextbezogene Forschung betrieben werden kann
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
In der Computergrafik stellte das echtzeitfähige
Rendern von Haaren und Fell ein Problem dar. Die
Berechnung der Beleuchtung, Schattierung und
Transparenz erfordert einen hohen Rechenaufwand,
welcher sich negativ auf die Performanz auswirkt.
Doch durch verbesserte Hardware und neue Verfahren
ist es möglich, solch komplexe Effekte in Echtzeit
zu simulieren. In folgender Arbeit werden die
Grundlagen des Renderings von Haaren erläutert.
Außerdem wurde im Rahmen der Arbeit eine
echtzeitfähige Demo implementiert, deren zugrunde
liegende Verfahren und Funktionalitäten beschrieben
werden. Um die Demo zu evaluieren wurde die mögliche
Anzahl an Bildern pro Sekunde bei Modellen
unterschiedlicher Komplexität gemessen. Schließlich
wurden die Ergebnisse mit Bildern von echten Haaren
verglichen.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Unternehmen versuchen, Knowledge Management (KM) zu nutzen, um mehr Effizienz und Effektivität im Unternehmen zu erreichen. Das Hauptproblem besteht darin, dass die meisten dieser KM Projekte nicht oder nur selten auf nachhaltigen Analysen oder etablierten Theorien über KM basieren. Oft besteht eine große Kluft zwischen den Erwartungen und dem tatsächlichen Ergebnis solcher KM Initiativen. Die zu beantwortende Forschungsfrage lautet also: Welche Herausforderungen ergeben sich in KM Projekten, welche KM Anforderungen können daraus abgeleitet werden und welche Empfehlungen unterstützen das Ziel, die Anforderungen an KM zu erfüllen? Als theoretische Grundlage wird eine Reihe von KM Frameworks untersucht. Anschließend werden KM Herausforderungen aus der Literatur analysiert und mit Best-Practice-Beispielen aus Case-Studies werden Handlungsempfehlungen für diese Herausforderungen gegeben. Das Hauptergebnis dieser Arbeit ist eine Best Practice-Guideline, die es Chief Knowledge Officers (CKOs) und KM Projektmanagern ermöglicht, die in dieser Arbeit genannten Herausforderungen genau zu untersuchen und eine geeignete Methode zu finden, diese Herausforderung optimal zu meistern. Diese Guideline zeigt, dass KM auf vielfältige Weise positiv und negativ beeinflusst werden kann. Knowledge Management (KM) in einem Unternehmen zu meistern ein großes und weitreichendes Unterfangen ist und das Technologie bzw. Information Technology (IT) nur ein Teil des großen Ganzen ist.
In dieser Forschungsarbeit wird eine Methode zur anwendungsbasierten Verknüpfung von Anforde-rungen und Enterprise Collaboration Softwarekompenten vorgestellt. Basierend auf dem etablierten IRESS Modell wird dabei ein praxistaugliches Mappingschema entwickelt, welches Use Cases über Kol-laborationsszenarien, Collaborative Features und Softwarekomponenten mit ECS verbindet. Somit las-sen sich Anforderungen von Unterhemen in Form von Use Cases und Kollaborationsszenarien model-lieren und anschließend über das Mappingschema mit konkreten ECS verbinden. Zusätzlich wird eine Methodik zur Identifikation von in Softwarekomponenten enthaltenen Collaborative Features vorge-stellt und exemplarisch angewandt.
Anschließend wird ein Konzept für eine Webapplikation entworfen, welches das vorgestellte Mapping automatisiert durchführt, und somit nach Eingabe der Anforderungen in Form vom Use Cases oder Kol-laborationsszenarien, die ECS ausgibt, die eben diese Anforderungen unterstützen.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
In dieser Arbeit werden Methoden und Maße getestet, nach denen beim Pathtracing eine Auswahl zwischen Line Space und Bounding Volume Hierarchie getroffen werden kann, die die Vorteile der beiden Datenstrukturen ausnutzen. Die Strukturen sind innerhalb der Bounding Box jedes Objekts (Objektlokal) definiert und jeder Line Space enthält in den Shafts jeweils eine Kandidaten-ID. Als Implementations- basis dient ein eigenes C++ und OpenGL Framework, in dem das Pathtracing und die Line Space Generierung über Compute Shader stattfindet. Die Maße schließen die Wahrscheinlichkeitsverteilung, die Effektabhängigkeit, sowie einen Distanz- grenzwert ein und werden gegen verschiedene Szenen getestet. Die Ergebnisse zeigen in den meisten Situationen einen deutlichen Geschwindigkeitszuwachs bei teils nur geringen visuellen Unterschieden, wobei das Wahrscheinlichkeitsmaß die qualitativ hochwertigsten Bilder für den gegebenen Leistungszuwachs erbringt. Die grundlegenden Probleme des Line Space im Vergleich mit der BVH, nämlich der hohe Speicherverbrauch und die lange Generierungszeit, bleiben aber trotz der objektlokalen Struktur, der minimalen Datenmenge pro Shaft und der Compute Shader Implementierung, erhalten.
Da Software heute nahezu alle Bereiche des Alltags durchdringt, ist Sicherheit von Softwaresystemen ein wichtigeres Anliegen als je zuvor. Die Sicherheit eines Softwaresystems zu bewerten stellt in der Praxis jedoch eine Herausforderung dar, da nicht viele Metriken existieren, die Sicherheitseigenschaften von Sourcecode auf Zahlenwerte abbilden. Eine geläufige Annahme ist, dass das Auftreten von Sicherheitslücken in Korrelation mit der Qualität von Software-Designs steht, allerdings fehlt es momentan an klaren Belegen für diese Annahme. Der Nachweis einer vorhandenen Korrelation kann dazu beitragen die Messung von Programmsicherheit zu optimieren, da man dann gezielt Qualitätsmetriken zum Messen von Sicherheit einsetzen könnte. Zu diesem Zweck wurden in dieser Arbeit für 50 Android-Apps aus dem Open Source-Bereich drei Sicherheits- und sieben Qualitätsmetriken, sowie Korrelationen zwischen diesen Metriken berechnet. Bei den Qualitätsmetriken handelt es sich um einfache Code-Metriken bis hin zu High-Level-Metriken, wie objektorientierte Antipatterns, die zusammen ein umfassendes Bild der Qualität vermitteln. Um die Sicherheit darzustellen wurden zwei Sichtbarkeitsmetriken zusammen mit einer Metrik, die die minimale Rechteanforderung mobiler Applikationen berechnet, ausgewählt. Es wurde festgestellt, dass auf Basis der betrachteten Evaluationsprojekte deutliche Korrelationen zwischen den meisten Qualitätsmetriken liegen. Zu den Sicherheitsmetriken wurden dahingegen keine signifikanten Korrelationen gefunden. Es werdendiese Korrelationen und deren Ursachen diskutiert und auf dieser Basis Empfehlungen formuliert.
Diese Arbeit befasst sich mit verschiedenen Möglichkeiten zur Interaktion
mit dreidimensionalen, virtuellen Objekten in der realen Umgebung des
Nutzers. Im Vordergrund stehen Interaktionsmöglichkeiten, welche durch
neue AR-Technologien aufkommen.
Dazu wird ein spielerischer Prototyp einer Applikation für die von Microsoft
entwickelte HoloLens konzipiert und implementiert. Der Prototyp
des Spiels besteht aus drei Phasen. Die erste Phase ist die Aufnahme der
realen Umgebung des Nutzers. In der zweiten Phase kann der Nutzer die
reale Umgebung mit der Hilfe von virtuellen Objekten erweitern. In der
dritten Phase muss der Nutzer einen virtuellen Avatar durch die reale Umgebung
navigieren.
Die Interaktionsmöglichkeiten der HoloLens wie Gaze, Gesture und VoiceInput
werden in den Kategorien Menüführung, Positionierung von virtuellen
Objekten im dreidimensionalen Raum und Steuerung eines Avatars einer
Evaluation unterzogen.
In dieser Arbeit werden zwei Verfahren zur Berechnung der globalen Beleuchtung vorgestellt. Das Erste ist eine Erweiterung von Reflective Shadow-Maps um einen Schattentest, womit Verdeckungsbehandlung erreicht wird. Das zweite Verfahren ist ein neuer, auf Light-Injection basierender, bidirektionaler Ansatz. Dabei werden Strahlen aus Sicht der Lichtquelle verfolgt und in der Linespace Datenstruktur in Schächten gespeichert, die eine Diskretisierung der Raumrichtungen darstellen. Die Linespaces sind dabei in ein Uniform Grid eingebettet. Beim Auslesen der vorberechneten indirekten Beleuchtung sind im Idealfall keine Traversierung der Datenstruktur und keine weitere Strahlverfolgung mehr notwendig. Damit wird eine Varianzreduzierung und eine schnellere Berechnung im Vergleich zu Pathtracing erzielt, wobei sich insbesondere Vorteile in stark indirekt beleuchteten Bereichen und bei Glas ergeben. Die Berechnung der globalen Beleuchtung ist allerdings approximativ und führt zu sichtbaren Artefakten.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Part-of-Speech tagging is the process of assigning words with similar grammatical properties to a part of speech (PoS). In the English language, PoS-tagging algorithms generally reach very high accuracy. This thesis undertakes the task to test against these accuracies in PoS-tagging as a qualitative measure in classification capabilities for a recently developed neural network model, called graph convolutional network (GCN). The novelty proposed in this thesis is to translate a corpus into a graph as a direct input for the GCN. The experiments in this thesis serve as a proof of concept with room for improvements.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.