004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (163) (entfernen)
Schlagworte
- OpenGL (7)
- Android (5)
- Graphik (4)
- Smartphone (4)
- Android <Systemplattform> (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- Computerspiel (3)
- Computervisualistik (3)
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
In dieser Arbeit wird das in letzter Zeit zunehmend wichtiger werdende Thema der Routenaggregation und deren Auswirkung auf die Verhinderung von Routingschleifen behandelt. Als Basis für die Implementation und Evaluation dient das an der Universität Koblenz entwickelte RMTI-Protokoll, bei dem es sich um eine Weiterentwicklung des in RFC2453 spezifizierten Routing Information Protocol Version 2 handelt. Dieses Protokoll kommt, in dieser Arbeit, innerhalb der virtuellen Netzwerkumgebung Virtual Network User-Mode-Linux (VNUML) zum Einsatz. Mit VNUML ist es möglich konkrete Netzwerkszenarien virtuell zu betreiben und zu untersuchen. Der RMTI ist bereits in der Lage topologische Schleifen zu erkennen und dadurch das Entstehen von Routingschleifen nachweislich zu verhindern. Im Rahmen der Arbeit wird die Funktionsweise des RMTI beschrieben und anschließend darauf eingegangen, unter welchen Umständen eine Routenaggregation vorgenommen werden darf ohne das die Aggregation Routinganomalien nach sich zieht. Um diese Änderungen vornehmen zu können ist ein tieferes Verständnis der Struktur von Routingtabellen notwendig, daher wird deren Aufbau anhand von Beispielen erläutert. Im Anschluss wird beschrieben an welchen Stellen Änderungen am RMTI vorgenommen werden müssen um trotz Aggregation eine Verhinderung von Routingschleifen bewirken zu können. Am Ende der Arbeit findet abschließend eine Evaluation der Reorganisationsfähigkeit des virtuellen Netzes bei vorgenommener Routenaggregation statt.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Es werden Rezipienten-Kommentare der Videoplattform YouTube zu den jeweils fünf erfolgreichsten Liedern der Jahre 2011 und 2012 nach nostalgischen Inhalten untersucht. Diese als nostalgisch identifizierten Kommentare werden inhaltlich analysiert und ausgewertet. Es soll herausgefunden werden, ob nostalgische Inhalte in Musikstücken Erfolgsfaktoren sind. Mittels des Uses-and-Gratifications-Ansatzes wird ermittelt welchen Zweck Rezipienten mit dem Konsum von Nostalgie auslösender Musik verfolgen. Musik ist ein deutlich stärkerer Nostalgieauslöser als das Musikvideo, wohingegen Nostalgie positiven und/oder negativen Affekt auslöst. Zudem wurde persönliche Nostalgie sehr viel häufiger identifiziert als historische Nostalgie. Weiterhin hat das Liedelement Liedtext ein deutlich größeres persönlich-nostalgisches Potential als andere Liedelemente. Personen und bedeutsame Ereignisse scheinen die häufigsten Objekte während persönlich-nostalgischer Träumerei zu sein. Rezipienten konsumieren nostalgische Musik, um in ihnen gewollt positive und/oder negative Emotionen hervorzurufen. Somit scheint Nostalgie in Musik bestimmte Bedürfnisse der Rezipienten zu befriedigen und es kann angenommen werden, dass Nostalgie als ein Erfolgsfaktor angesehen werden kann.
Infinite worlds
(2013)
Diese Arbeit befasst sich mit dem Erstellen eines 2D-Action-Adventures mit Rollenspielelementen. Sie soll einen Überblick über verschiedene Aspekte der Realisierung geben. Zuerst wird die Spielidee und die verwendeten Spielmechanismen beschrieben und daraus eine Anforderungsdefinition erstellt. Nachdem das verwendete Framework kurz erläutert wurde, wird das softwaretechnische Konzept zur Realisierung vorgestellt. Die Umsetzung der Komponenten Steuerung, Spieleditor, Sound und Grafiik wird aufgezeigt. Bei der grafiischen Umsetzung wird ein besonderes Augenmerk auf die Abstraktion von Licht und Schatten in die 2D-Spielewelt gelegt.
Aufgrund der zunehmenden Verbreitung des mobilen Internets, können E-Mails direkt von mobilen Geräten gesendet und empfangen werden. Inhalte digitaler Kommunikation sollten verschlüsselt werden, um zu verhindern, dass sie abgefangen und manipuliert werden. Entsprechende Verfahren setzen kryptographische Schlüssel ein, die zuvor ausgetauscht werden müssen. Es muss sichergestellt sein, dass ein kryptographischer Schlüssel tatsächlich der Person zugeordnet ist, zu der er angeblich gehört. Im Rahmen dieser Arbeit wurde ein Konzept für eine Smartphone-Anwendung entwickelt, um kryptographische Schlüssel im persönlichen Kontakt auszutauschen. Das Konzept besteht aus dem Entwurf eines komponentenbasierten Frameworks, mit dem sich Daten sicher austauschen lassen. Das Framework wurde anschließend erweitert und als Grundlage für die Entwicklung einer Smartphone-Anwendung eingesetzt. Die Anwendung ermöglicht es, kryptographische Schlüssel zu erzeugen, zu verwalten und im persönlichen Kontakt auszutauschen. Für den Austausch wird die Near Field Communication genutzt. Durch implementierte Sicherheitsmechanismen ist gewährleistet, dass der Schlüsselaustausch weder abgehört, noch gezielt manipuliert werden kann. In Zukunft können das Konzept und die Anwendung erweitert und angepasst werden, um sie in anderen Arbeiten einzusetzen.
Geschäftsprozessmanagement (GPM) gilt in der heutigen Unternehmensentwicklung als einer der wichtigsten Erfolgsfaktoren und wird von modernen Unternehmen auch als solcher wahrgenommen [vgl. IDS Scheer 2008]. Bereits 1993 waren Geschäftsprozesse für Hammer und Champy der zentrale Schlüssel zur Reorganisation von Unternehmen [vgl. Hammer, Champy 1993, S. 35]. Den Paradigmenwechsel von der Aufbau- zur Ablauforganisation und letztendlich zur etablierten "Prozessorganisation" wurde von Gaitanides schon 1983 erstmals beschrieben [vgl. Gaitanides 2007].
Trotz einer breiten und tiefen Behandlung des Themengebiets "Geschäftsprozessmanagement" in der wissenschaftlichen Literatur, gestaltet es sich schwierig, einen schnellen Überblick in Bezug auf Vorgehensweisen zur Einführung von Geschäftsprozessmanagement zu erhalten. Dies ist im Wesentlichen der Tatsache geschuldet, dass in der Literatur "Geschäftsprozessmanagement" in unterschiedlichen wissenschaftlichen Bereichen wie z.B. der Organisationslehre [vgl. z.B. Vahs 2009; Schulte-Zurhausen 2005], der Betriebswirtschaft [vgl. z.B. Helbig 2003; Schmidt 2012] oder der Informatik bzw. Wirtschaftsinformatik [vgl. z.B. Schmelzer, Sesselmann 2008; Schwickert, Fischer 1996] behandelt und der Aufbau eines GPMs anhand unterschiedlicher Themenschwerpunkte beschrieben wird. Insbesondere gestaltet sich die Suche nach Literatur zu Geschäftsprozessmanagement speziell für kleine und mittlere Unternehmen (KMU) und zu Einführungsmethoden von BPM in KMU als schwierig. Die Kombination "Vorgehensweisen zur Einführung von Geschäftsprozessmanagement bei KMU" ist in der wissenschaftlichen Literatur nicht aufzufinden. Mit der vorliegenden Arbeit soll ein erster Ansatz geschaffen werden, diese Lücke zu schließen. Diese Arbeit zielt darauf ab, anhand einer Auswahl von Vorgehensweisen zur Einführung von Geschäftsprozessmanagement deren charakteristische Eigenschaften zu analysieren und einander gegenüberzustellen. Zudem erfolgt eine Bewertung auf die Anwendbarkeit einzelner Vorgehensweisen auf kleine und mittlere Unternehmen anhand zuvor erhobener, für KMU wichtiger Anforderungen an BPM und dessen Einführung.
Auf Basis der dieser Arbeit zugrundeliegenden Bewertungskriterien schneidet die Vorgehensweise nach Schulte-Zurhausen im Gesamtergebnis am besten ab. Dennoch ist festzustellen, dass jede der untersuchten Vorgehensweisen Stärken und Schwächen bzgl. der Eignung für ein KMU aufweist. Dies hat zur Folge, dass bei der Einführung eines Geschäftsprozessmanagements jede der untersuchten Vorgehensweisen einer Anpassung und Adaption auf die Situation eines KMUs bedarf. Aus diesem Grund empfiehlt der Autor dieser Arbeit einem KMU, eine Vorgehensweise als grundlegende Vorgehensweise der Einführung festzulegen (in diesem Fall die Vorgehensweise nach Schulte-Zurhausen) und diese durch jeweils geeignete Aspekte der weiteren Vorgehensweisen anzureichern bzw. zu vervollständigen.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
Diese Bachelor-Thesis beschäftigt sich mit der Entwicklung eines Programms, welches den Zahnarzt durch die AR bei seiner Behandlung am Patienten unterstützen soll. Um eine angemessene theoretische Grundlage zu schaffen, wird zunächst der aktuelle Stand der Technik erläutert, der für dieses Projekt relevant ist. Daraufhin werden mögliche zukünftige Technologien vorgestellt, welche die hypothetische Basis dieser Arbeit darstellen. In dem darauffolgenden Unterkapitel wird die Auswahl der Systeme erläutert, die für dieses Projekt verwendet wurden. Der Hauptteil beschäftigt sich zunächst mit dem Vorgehen in der Vorbereitungs- und Planungsphase, um daraufhin den Programmablauf der Applikation sukzessiv vorzustellen. Dabei wird auch auf die Probleme eingegangen, die während des Programmierens entstanden sind. In dem reflektierenden Auswertungsteil werden Verbesserungsvorschlägen und Zusatzfunktionen für das geschriebene Programm präsentiert.