004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (163) (entfernen)
Schlagworte
- OpenGL (7)
- Android (5)
- Graphik (4)
- Smartphone (4)
- Android <Systemplattform> (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- Computerspiel (3)
- Computervisualistik (3)
- Enterprise 2.0 (3)
- Informatik (3)
- OpenGL Shading Language (3)
- Programmierung (3)
- Routing (3)
- Simulation (3)
- Akkreditierung (2)
- App (2)
- Applikation (2)
- Business Intelligence (2)
- Entwicklung (2)
- GPGPU (2)
- Grafikkarte (2)
- Informationsmanagement (2)
- Instant Messaging (2)
- Netzwerk (2)
- Online-Befragung (2)
- Qualität (2)
- Ray tracing (2)
- Rechnernetz (2)
- Rollenspiel (2)
- Router (2)
- Shader (2)
- Spiel (2)
- Steuerung (2)
- Supply Chain Management (2)
- Umfrage (2)
- VOXEL (2)
- World of Warcraft (2)
- 3D (1)
- 3D-Kartierung (1)
- API (1)
- Ad-Hoc Routing (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Agenten (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Anforderung (1)
- Annotation (1)
- App <Programm> (1)
- Archivierung (1)
- Audiodatei (1)
- Automatische Klassifikation (1)
- Autonomes Fahrzeug (1)
- Autorensystem (1)
- BGV A1 (1)
- BI (1)
- BPM (1)
- BPMN (1)
- Balanced Scorecard (1)
- Bebauungsdichte (1)
- Beleuchtung (1)
- Beschleunigungsensor (1)
- Betriebssystem (1)
- Bewegungsablauf (1)
- Bildanalyse (1)
- Bildverarbeitung (1)
- Blickpunktabhängig (1)
- Brechung (1)
- Browser (1)
- Business Process Modeling (1)
- C-Programmierung (1)
- CIDR (1)
- CSCW (1)
- Chiffrierung (1)
- Cloud Computing (1)
- Cold Chain (1)
- Coloskopie (1)
- Compute-Shader (1)
- Computer Graphics (1)
- Computer Supported Cooperative Work (1)
- Computeranimation (1)
- Computergrafik (1)
- Congestion Control (1)
- Constitutive Model (1)
- Container Entity Modell (1)
- Content Management (1)
- Corruption (1)
- Crowdsourcing (1)
- Darmpolyp (1)
- Data Warhousing (1)
- Data manipulation (1)
- Data-Warehouse-Konzept (1)
- Datenbanksystem (1)
- Design Thinking (1)
- Diagramm (1)
- Diffie-Hellman-Algorithmus (1)
- Digitale Bilder (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Drahtloses lokales Netz (1)
- E-Government (1)
- E-Learning (1)
- E-Partizipation (1)
- EMIL-S (1)
- Echtzeitsystem (1)
- Echtzeitsysteme (1)
- Ecore (1)
- Einstellung (1)
- Elektrischer Servomotor (1)
- Elektronisches Wasserzeichen (1)
- Empfehlungssystem (1)
- Empirische Sozialforschung (1)
- Enterprise Information Management (1)
- Entwurfssprache (1)
- Erstgebärende (1)
- Eulerian grid (1)
- Europäischer Schadensbericht (1)
- Evaluation (1)
- Experiment (1)
- Fabric Simulation (1)
- Fahrerassistenzsysteme (1)
- Faktorenanalyse (1)
- Fast Convolution (1)
- Fehlerverhütung (1)
- Fertilitaet (1)
- Finanzberatung (1)
- FlexViz (1)
- Flow-Erlebnis (1)
- Food Transportation System (1)
- Foodstuff (1)
- Forschungslandkarte (1)
- Fourier (1)
- Framework (1)
- Freiheitsgrad (1)
- Fresnel (1)
- Föderiertes System (1)
- GPS (1)
- GPU (1)
- GSM-Standard (1)
- Game Design (1)
- Geburt (1)
- Geburtshaus (1)
- Geocaching (1)
- Germany (1)
- Gerstner (1)
- Geschäftsprozess (1)
- Geschäftsprozessmodell (1)
- Geste (1)
- Gesteninterpretation (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Grundschule (1)
- Halbschatten (1)
- Haskell (1)
- Hausgeburt (1)
- Hebamme (1)
- Historisierung (1)
- IP 6 (1)
- IPv6 (1)
- Inflation (1)
- Infobroker (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Flow Ontology (1)
- Information Supply Chain (1)
- Informationsmanagementsystem (1)
- Informationssystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integriertes Informationssystem (1)
- Interaktives Fernsehen (1)
- Internet (1)
- Internet of Things (1)
- Internetregulierung (1)
- Internetworking (1)
- Jabber (1)
- Jabber <Programm> (1)
- Join (1)
- Jump'n Run-Spiel (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kinect (1)
- Kinematik (1)
- Kletterer (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Kommunikationsprotokoll (1)
- Konturfindung (1)
- Konzept (1)
- Kooperatives Informationssystem (1)
- Korruption (1)
- Korrutionsprävention (1)
- Lastenheft (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernspiel (1)
- Lernumgebung (1)
- Line Space (1)
- Linespace (1)
- Lokalisation (1)
- MMORPG (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Mann-Whitney (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Merkmalsdetektion (1)
- Metriken (1)
- Micro Finance (1)
- Migration (1)
- Mikrocontroller AVR (1)
- Mikrozensus (1)
- Mister X (1)
- Modell (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Modulnetze (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NPO (1)
- Native language identification (1)
- Network (1)
- Nonprofit-Organisation (1)
- Nvidia CUDA (1)
- OCR (1)
- OWL <Informatik> (1)
- Objektverfolgung (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Onlinesucht (1)
- Ontologie (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenCL (1)
- OpenWrt (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Parallelmanipulator (1)
- Partikel (1)
- Partikelsystem (1)
- Path Tracing (1)
- Perinatalbogen (1)
- Pfadnachverfolgung (1)
- Pflichtenheft (1)
- Physiksimulation (1)
- Politik (1)
- Pre-Integration (1)
- Prevention (1)
- Privatvermögen (1)
- Probabilistic finite automata (1)
- Prozedurale Synthese (1)
- Prozessanalyse (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prävention (1)
- Psychohygiene (1)
- Pulsweitenmodulation (1)
- Pupil Center Estimation Algorithmus (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- RDF (1)
- RIPng (1)
- Rangtest (1)
- Ray Tracer (1)
- Ray-Casting (1)
- Raytracing (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Rechnernetze (1)
- Recommender System (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Registratur (1)
- Relationales Datenbanksystem (1)
- Rendering (1)
- Requirements-Engineering (1)
- Research Map (1)
- Rettungsroboter (1)
- Reverberation (1)
- Robbie (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- SOA-Webservice (1)
- SVG (1)
- Schnelle Faltung (1)
- Schwangerschaft (1)
- Sensor (1)
- Sensorensteuerung (1)
- Serielle Schnittstelle (1)
- Serviceroboter (1)
- Sich langsam verändernde Dimensionen (1)
- Slowly Changing Dimensions (1)
- Social Software (1)
- Soziooekonomisches Panel (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Specular (1)
- Staat (1)
- Starrkörper (1)
- Staukontrollmechanismen (1)
- Stewart-Plattform (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Suchmaschine (1)
- Supernetting (1)
- System Dynamics (1)
- Systemanalyse (1)
- TCP/IP (1)
- TGraph (1)
- TQM (1)
- TRIZ (1)
- Tablet PC (1)
- Taxonomie (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Text (1)
- Texterkennung (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tracing (1)
- Transfer function (1)
- Transferfunktion (1)
- Transformation (1)
- Translation (1)
- University (1)
- Unternehmensnetzwerke (1)
- VST (1)
- Validierung (1)
- Verteilte Systeme (1)
- Videospiel (1)
- Videoübertragung (1)
- Virtual Networks (1)
- Virtuelle Welt (1)
- Visualisierung (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorbeugung (1)
- Voxelisierung (1)
- WLAN Fingerprinting (1)
- Wasseroberfläche (1)
- Web 2.0 (1)
- Web Analytics (1)
- Webserver (1)
- Wellen (1)
- Werbeform (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wiederhall (1)
- Wilcoxon-Rangsummentest (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wrapping (1)
- XMPP (1)
- Zufriedenheit (1)
- accelerometer (1)
- advertisements (1)
- amtliche Haushaltsbefragungen (1)
- android (1)
- archiving (1)
- area light (1)
- attitude (1)
- computer science (1)
- concept (1)
- deutsche Hochschulen (1)
- development (1)
- diagram (1)
- experiment (1)
- factor analysis (1)
- game (1)
- general purpose (1)
- governance (1)
- grUML (1)
- graphics card (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- interactive application (1)
- interaktiv (1)
- interaktive Applikation (1)
- interaktiven (1)
- jOWL (1)
- jump'n run game (1)
- knowledge base (1)
- line space (1)
- mann-whitney (1)
- menschliches Auge (1)
- metasearch engine (1)
- metrics (1)
- midwife (1)
- model (1)
- modulares System (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- online survey (1)
- ontology (1)
- out-of-hospital birth (1)
- perinatal (1)
- policy modelling (1)
- pregnancy (1)
- procedural content generation (1)
- quality (1)
- quality assurance (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- rigid body (1)
- search engine (1)
- sensor control (1)
- shader (1)
- soft shadow (1)
- survey (1)
- taxonomy (1)
- tool-integration (1)
- unofficial household surveys (1)
- video game (1)
- video games (1)
- virtuelle Netze (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
- Übersetzung (1)
Social-Media Plattformen wie Twitter oder Reddit bieten Nutzern nahezu ohne Beschränkungen die Möglichkeit, ihre Meinungen über aktuelle Ereignisse zu veröffentlichen, diese mit anderen zu teilen und darüber zu diskutieren. Während die Mehrheit der Nutzer diese Plattformen nur als reines Diskussionsportal verwenden, gibt es jedoch Nutzergruppen, welche aktiv und gezielt versuchen, diese veröffentlichten Meinungen in ihrem Sinne zu beeinflussen bzw. zu manipulieren. Durch wiederholtes Verbreiten von bearbeiteten Fake-News oder stark polarisierenden Meinungen im gesamten politischen Spektrum können andere Nutzer beeinflusst, manipuliert und unter Umständen zum Träger von Hassreden und extremen politischen Positionen werden. Viele dieser Nutzergruppen sind vor allem in englischsprachigen Portalen anzutreffen, in denen sie sich überwiegend als Muttersprachler ausgeben. In dieser Arbeit stellen wir eine Methode vor, englische Muttersprachler und Nicht-Muttersprachler, die Englisch als Fremdsprache verwenden, anhand von ausgewählten englischen Social Media Texten zu unterscheiden. Dazu implementieren wir textmerkmalbasierte Modelle, welche für traditionelle Machine-Learning Prozesse und neuartigen AutoML-Pipelines zur Klassifizierung von Texten verwendet werden. Wir klassifizieren dabei Sprachfamilie, Muttersprache und Ursprung eines beliebigen englischen Textes. Die Modelle werden an einem bestehenden Datensatz von Reddit, welcher hauptsächlich aus englischen Texten von europäischen Nutzern besteht, und einem neu erstellten Twitter Datensatz, der Tweets von aktuellen Themen in verschiedenen Ländern enthält, angewandt. Wir evaluieren dabei vergleichsweise die erhaltenen Resultate unserer Pipeline zu traditionellen Maschinenlernprozessen zur Texterkennung anhand von Präzision, Genauigkeit und F1-Maßen der Vorhersagen. Wir vergleichen zudem die Ergebnisse auf Unterschiede der Sprachnutzung auf den unterschiedlichen Plattformen sowie den ausgewählten Themenbereichen. Dabei erzielen wir eine hohe Vorhersagewahrscheinlichkeit für alle gewählten Kategorien des erstellten Twitter Datensatzes und stellen unter anderem eine hohe Abweichung in Bezug auf die durchschnittliche Textlänge insbesondere bei Nutzern aus dem baltoslawischen Sprachraum fest.
Abstract
This bachelor thesis delivers a comprehensive overview of the topic Internet of Things (IoT). With the help of a first literature review, important characteristics, architectures, and properties have been identified. The main aim of this bachelor thesis is to determine whether the use of IoT in the transport of food, considering the compliance with the cold chain, can provide advantages for companies to reduce food waste. For this purpose, a second literature review has been carried out with food transport systems without the use, as well as with the use of IoT. Based on the literature review, it is possible at the end to determine a theoretical ‘ideal’ system for food transport in refrigerated trucks. The respective used technologies are also mentioned. The findings of several authors have shown that often significant improvements can be achieved in surveillance, transport in general, or traceability of food, and ultimately food waste can be reduced. However, benefits can also be gained using new non-IoT-based technologies. Thus, the main knowledge of this bachelor thesis is that a theoretical ‘ideal’ transport system contains a sensible combination of technologies with and without IoT. This system includes the use of a Wireless Sensor Network (WSN) for real-time food monitoring, as well as an alarm function when the temperature exceeds a maximum. Real-time monitoring with GPS coupled with a monitoring center to prevent traffic jams is another task. Smart and energy-efficient packaging, and finally the use of the new supercooling-technology, make the system significantly more efficient in reducing food waste. These highlights, that when choosing a transport system, which is as efficient and profitable as possible for food with refrigerated transport, companies need not just rely on the use of IoT. On this basis, it is advisable to combine the systems and technologies used so far with IoT in order to avoid as much food waste as possible.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Die Arbeitsgruppe Echtzeitsysteme an der Universität Koblenz beschäftigt sich seit mehreren Jahren mit der Thematik autonomes und assistiertes Fahren. Eine große Herausforderung stellen in diesem Zusammenhang mehrgliedrige Fahrzeuge dar, deren Steuerung für den Fahrer während der Rückwärtsfahrt sehr anspruchsvoll ist. Um präzise Manöver zu ermöglichen, können elektronische Fahrerassistenzsysteme zum Einsatz kommen. Im Rahmen vorhergehender Arbeiten sind bereits einige Prototypen entstanden, von denen jedoch keiner eine geeignete Lösung für moderne, zweiachsige Anhänger darstellt. Im Rahmen dieser Arbeit wurde ein prototypisches Fahrerassistenzsystem entwickelt, wobei es noch weiterer Forschungs- und Entwicklungsarbeit bedarf, um das System straßentauglich zu machen.
101worker ist die modulare Wissensverarbeitungskomponente des 101companies-Projektes. Durch organisches Wachstum des Systems, statt Beachtung von bewährten Software-Design-Prinzipien, haben sich Wartungs- und Leistungsprobleme entwickelt. Diese Arbeit beschreibt diese Probleme, entwirft Anforderungen für das Refactoring des Systems und beschreibt und analysiert schließlich die resultierende Implementierung. Die Lösung involviert die Zusammenfassung von verstreuten und redundanten Informationen, aufsetzen von Unit- und funktionalen Test-Suiten und Inkrementalisierung der Busarchitektur von 101worker.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Bei der eindeutigen Isolation und Klassifizierung von Merkmalen in 3D-Multi-Attribut-Volumendaten sind multidimensionale Transferfunktionen unabdingbar. Jedoch wird bei mehreren Dimensionen das Verständnis der Daten sowie die Interaktion mit diesen zu einer Herausforderung. Weder die Kontrolle der vielseitigen Eingabeparameter noch die Visualisierung im höherdimensionalen Raum sind trivial.
Ziel dieser Arbeit ist die Erstellung eines Transferfunktionseditors, der durch die Verwendung von verschiedenen Visualisierungs- und Interaktionstechniken, z.B. der Verwendung von parallelen Koordinatenachsen, die Erstellung multidimensionaler Transferfunktionen unterstützt. Dabei sollen unterschiedliche Dimensionen interaktiv ausgewählt und kombiniert werden und die Veränderungen der Transferfunktion durch visuelles Feedback im gerenderten Volumen bestätigt werden.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Nutzung von Big Data im Marketing : theoretische Grundlagen, Anwendungsfelder und Best-Practices
(2015)
Die zunehmende Digitalisierung des Alltags und die damit verbundene omnipräsente Datengenerierung bieten für Unternehmen und insbesondere Marketingabteilungen die Chance, Informationen in bisher ungekannter Fülle über ihre Kunden und Produkte zu erhalten. Die Gewinnung solcher Informationen aus riesigen Datenmengen, die durch neue Technologien ermöglicht wird, hat sich dabei unter dem Begriff Big Data etabliert.
Die vorliegende Arbeit analysiert diese Entwicklung im Hinblick auf das Potenzial für die unternehmerische Disziplin des Marketings. Dazu werden die theoretischen Grundlagen des Einsatzes von Big Data im Marketing identifiziert und daraus Anwendungsfelder und Best-Practice-Lösungen abgeleitet. Die Untersuchung basiert auf einer Literaturanalyse zu dem Thema Big Data Marketing, welche neben verschiedenen Studien und Befragungen auch Expertenmeinungen und Zukunftsprognosen einschließt. Die Literatur wird dabei zunächst auf die theoretischen Grundlagen des Konstrukts Big Data analysiert.
Anschließend wird die Eignung von Big Data Lösungen für den Einsatz in Unternehmen geprüft, bevor die Anwendung im Bereich des Marketings konkretisiert und analysiert wird. Es wurde dabei festgestellt, dass anhand der theoretischen Aspekte von Big Data eine starke Eignung für den Einsatz im Rahmen des Marketings besteht. Diese zeichnet sich vor allem durch die detaillierten Informationen über Verhaltensmuster von Kunden und ihre Kaufentscheidungen aus. Weiterhin wurden potenzielle Anwendungsfelder identifiziert, welche besonders im Bereich der Kundenorientierung und der Marktforschung liegen. Im Hinblick auf Best-Practice-Lösungen konnte ein grober Leitfaden für die Integration von Big Data in die Unternehmensorganisation entwickelt werden. Abschließend wurde festgehalten, dass das Thema Big Data eine hohe Relevanz für das Marketing aufweist und dies in der Zukunft maßgeblich mitbestimmen wird.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Die vorliegende Arbeit stellt eine Rigid-Body Physik-Engine vor, deren Schwerpunkt auf der Kollisionserkennung per GPU liegt. Die steigende Performanz und Zugänglichkeit moderner Grafikkarten sorgt dafür, dass sich diese auch für Algorithmen nutzen lassen, die nicht nur zur Bilderzeugung gedacht sind. Dieser Vorteil wird genutzt, um eine effiziente auf Partikeln basierende Kollisionserkennung zu implementieren. Mit Hilfe einer Testumgebung wird dann der Performance-Unterschied zwischen CPU und GPU dargestellt.
Durch eine systematische Literaturanalyse sollen die wichtigsten Aspekte des Phänomens Crowdsourcing abgedeckt werden. Da die Summe an Forschungsfragen relativ breit gefächert ist, soll der Fokus der Arbeit auf die im Folgenden aufgelisteten Fragen gelegt werden: Was ist unter dem Begriff Crowdsourcing gezielt zu verstehen? Wie lässt sich das Phänomen Crowdsourcing von anderen angrenzenden Konzepten trennen? Wo liegen die Gemeinsamkeiten und wesentlichen Unterschiede zwischen den einzelnen Konzepten? Welche Ausprägungsformen von Crowdsourcing sind in Theorie und Praxis vorzufinden? In welchen Bereichen kommt Crowdsourcing zum Einsatz? Welche Unternehmen setzen Crowdsourcing erfolgreich um? Welche Plattformen zur Unterstützung von Crowdsourcing sind vorhanden? Welche Ziele bzw. Ergebnisse sollen mit dem Einsatz von Crowdsourcing erreicht bzw. erzielt werden? Wie läuft der Crowdsourcing-Prozess ab und in welche Phasen lässt sich dieser unterteilen? Wie sieht die Wertschöpfung durch Crowdsourcing (a) allgemein und (b) speziell für Unternehmen aus? Welche Chancen und Potenziale sowie Risiken und Grenzen entstehen dabei den Unternehmen? Was lässt sich in Zukunft im Bereich des Crowdsourcing noch verbessern, das heißt in welchen Bereichen besteht noch Forschungsbedarf?
Im Rahmen dieser Arbeit soll eine Methodik erarbeitet werden, die englische, keyword-basierte Anfragen in SPARQL übersetzt und bewertet. Aus allen generierten SPARQL-Queries sollen die relevantesten ermittelt und ein Favorit bestimmt werden. Das Ergebnis soll in einer Nutzerevaluation bewertet werden.
Ziel dieser Bachelorarbeit ist es, einen Innovationsprozess zu modellieren. Einerseits um die Einsatzmöglichkeiten von klassischen Kreativitätstechniken und IT-Tools in den unterschiedlichen Prozessphasen, andererseits die Integration des TRIZ- und Design Thinking Ansatzes im Innovationsprozess zu untersuchen. Um dieses Ziel zu erreichen, sollen folgende Arbeitsschritte erledigt werden: Zunächst soll eine Übersicht über verschiedene Innovationsprozessmodelle gegeben werden. Es wird mit einer Auswahl von Innovationsprozessen aus der Literatur auseinandergesetzt und es werden wichtige Merkmale behandelt. Im nächsten Schritt werden nach einer kurzen Einführung in das Themenfeld Kreativität ausgewählte Kreativitätstechniken, IT-gestützte Apps und Tools vorgestellt, die sich in der Praxis vielfach bewährt haben und zu innovativer Ergebniswirksamkeit führen. Anschließend werden die Ansätze des TRIZ und Design Thinking präsentiert.
Im Folgenden soll ein Innovationsprozess mit den möglichen Touchpoints zu Kreativitätstechniken, IT-Tools und systematischen Innovationsmethoden modelliert werden. Die Touchpoints werden dabei textuell beschrieben.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Neue Techniken zur automatischen Identifikation von Objekten (Auto-ID) zeigen einzigartige Potentiale für deren Einsatz in der Wirtschaft auf. Diese Arbeit fokussiert sich auf die Radio Frequency Identification- (RFID-) Technologie und untersucht deren Nutzen und Potentiale für ausgewählte Wirtschaftsbranchen. Dabei wird sie unmittelbar mit dem zurzeit in der Wirtschaft vorherrschenden System zur Objektidentifikation, dem Barcode, verglichen. Zu diesem Zweck werden die grundlegenden Funktionsweisen beider Technologien vorgestellt und Unterscheidungsmerkmale hinsichtlich der technischen Ausgestaltung der einzelnen Technologien beleuchtet. Darüber hinaus werden im Hinblick auf die potentielle Verwendung von RFID- und Barcodetechnologie innerhalb dreier Wirtschaftsbranchen die unterschiedlichen Funktionsweisen beider Technologien voneinander abgegrenzt und bewertet. Die Abgrenzung bietet die Grundlage, um die Chancen der RFID-Technologie als potentiellem Nachfolger für die Barcode-Technologie in der Konsumgüterbranche, der Logistikbranche und der Pharmabranche zu ermitteln und zu bewerten.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
Ziel dieser Bachelorarbeit war es herauszufinden, mit welchen Hilfsmitteln Entscheidungen unter Unsicherheit getroffen werden und welche Unterschiede es bei Personen mit verschiedenen Eigenschaften gibt. Die Ergebnisse sollten hauptsächlich den Entscheidungsprozess von Managern, Entrepreneuren und Personen mit großer Entscheidungskompetenz widerspiegeln. Zudem sollte gezeigt werden, dass unterschiedliche Persönlichkeitseigenschaften sich auf den Entscheidungsprozess auswirken.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Drahtlose Sensornetzwerke (DSN) sind Rechnernetze von Sensorknoten. In positionsbasierten Protokollen senden solche Knoten ihre Positionsdaten periodisch als Nachrichten (Beacon) über Funk an umliegende Knoten. Beacons bringen jedoch Nachteile mit sich, die sog. "beaconless" Algorithmen zu lösen versuchen. Diese Algorithmen benutzen keine Beacons, sollen aber die gleichen Einsatzgebiete abdecken wie ihre Beacon-behafteten Gegenstücke. Trotz ihrer Wichtigkeit im Forschungsgebiet der Rechnernetze sind beaconless Verfahren nach unserem derzeitigen Kenntnisstand noch nicht systematisch untersucht worden.
Ziel dieser Arbeit ist eine möglichst umfassende und systematische Übersicht von beaconless Algorithmen seit der Jahrtausendwende. Relevante Artikel werden anhand ihrer Gemeinsamkeiten kategorisiert und ihre Unterschiede werden gegenübergestellt. Diese Arbeit dient somit als Nachschlagewerk zum aktuellen Forschungsstand von beaconless Algorithmen sowie als Basis zum Aufdecken von Forschungslücken.
Die Informationstechnologie hat in den letzten Jahren einen rasanten Anstieg genommen. Durch die Entwicklung des Web 2.0 zum Social Web nehmen immer mehr Menschen und Unternehmen am Informationsaustausch im Web teil. In den Sozialen Netzwerken wie Facebook oder Xing, Blogs von Personen der Öffentlichkeit oder unbekannten Personen oder der Vielzahl an Foren und ähnlichen Plattformen hat jeder die Möglichkeit, am Informationsaustausch selbst mitzuwirken. Dieser Tatsache geschuldet sind nicht nur Unternehmen sondern auch Privatpersonen gezwungen, diese Entwicklung anzunehmen. Durch die Menge an zugänglichen Informationen ist auch die Reputation zwangsläufig betroffen. Durch diese Entwicklung entstand die virtuelle Reputation, die das Gerüst der Gesamtreputation erweitert. Wer sich um einen Auftrag oder eine Stelle bewirbt mussrndamit rechnen, dass sein Name gegoogelt wird, egal ob es sich hierbei um eine internetaffine Branche handelt oder nicht. Durch Suchmaschinen sind Informationen über eine Person leicht zugänglich. Auch ein Blick in ein Profil bei Facebook oder Xing gibt erste Anhaltspunkte. Der Kommunikationsexperte Klaus Eck sagt dazu: "Nur wer das Netz wirklich ernst nimmt, profitiert bei der Entwicklung seines digitalen Rufs". Diese Forschungsarbeit zeigt anhand eines selbstentwickelten Fragebogens, was in Social Networkrnals reputationsfördernd bzw. reputationsschädigend angesehen wird und in wieweit die virtuelle Reputation die Gesamtreputation beeinflusst.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Diese Arbeit versucht zu klären, ob der richtige Zeitpunkt für eine innovative Veränderung eines Geschäftsmodells ermittelt werden kann. Wenn ja, gilt es herauszufinden, wann dieser Zeitpunkt eintritt.
In einer kurzen Einführung sind die Problemstellung und die Ziele dieses Themas zusammengefasst und die Vorgehensweise der Literaturrecherche, sowie deren Bearbeitung beschrieben.
Es folgen die drei Hauptkapitel, welche inhaltlich aufeinander aufbauen. In dem Kapitel zwei sind Geschäftsmodelle thematisiert. Hier sind zunächst aus verschiedenen Quellen Definitionen des Begriffs "Business Model" herausgearbeitet, damit ein allgemeines Verständnis der Bedeutung eines Geschäftsmodells gewährleistet ist. Diese Definitionen sind durch das von Chesbrough und Rosenbloom (2002) praktische Beispiel der Nutzung eines Geschäftsmodells des Unternehmens Xerox Corporation gestützt. Im nächsten Schritt gilt es Typen von Business Models zu identifizieren. Als Quelle dient hierfür Weill et al (2005).
Der letzte Abschnitt von Kapitel zwei beschäftigt sich mit den sechs Dimensionen eines Geschäftsmodells nach Bieger und Reinhold (2011). Diese sechs Dimensionen spielen zum Ende dieser Arbeit eine Rolle als Kriterien für die Analyse heutiger Literatur zum Timing von Geschäftsmodellen.
Kapitel drei ist gleichzeitig Teil zwei der drei Hauptkapitel. Hier liegt der Fokus auf Innovationen. Der Begriff Innovation ist zunächst definiert und seine Wichtigkeit dargestellt, bevor verschiedene Arten von Innovationen beschrieben werden. Die einzelnen Innovationsarten leiten sich aus den Differenzierungskriterien nach Vahs und Brem (2013) ab. Um auch an dieser Stelle die Realität aus Unternehmenssicht näherzubringen, sind Fragestellungen aufgeführt, welche ein Geschäftsführer sich stellen sollte, wenn er sein Geschäftsmodell verändern möchte oder muss. Literaturgrundlage dieser Fragestellungen ist ein Artikel von Zott und Amit aus dem Jahr 2010.
Nach der umfassenden Klärung des Begriffs Innovation und kurzer Hilfestellung für Geschäftsführer folgt eine Beschreibung zweier Methoden, um Geschäftsmodelle innovativ zu verändern. Die erste Methode ist die Nutzung des St. Galler Business Model Navigators nach Gassmann, Frankenberger und Csik (2013). Der St. Galler Business Model Navigator wurde an der Universität St. Gallen in der Schweiz von dem Institut für Technologiemanagement entwickelt.
Die zweite beschriebene Methode für Business Model Innovation ist das Business Model Canvas Tool nach Osterwalder und Pigneur (2010), welches auf die sogenannten "nine building blocks" aufbaut.
Das letzte Hauptkapitel dieser Arbeit bezieht sich auf dessen zentrale Fragestellung mit dem Stichwort Timing. Hier wird mit einem praktischen Beispiel von Timing von technologischen Innovationen begonnen, der IBM Mainframe Case, analysiert von Mahajan und Muller (1996). Danach folgt eine kurze Zusammenfassung des Standes in der heutigen Literatur zum Thema Timing. Im nächsten Schritt ist ein eigener Beitrag zum Thema "Business Model Innovation Timing" geschrieben, weswegen sich Literaturangaben in diesem Abschnitt auf dem Minimum halten.
Diese Bachelorarbeit schließt ab mit der eigenen Analyse von heutiger Literatur zum Timing von Geschäftsmodellen. Ergebnis dieser Analyse ist eine Tabelle mit einer 20 x 7 Matrix, wo der Inhalt zwanzig ausgewählter Quellen den sechs Dimensionen eines Geschäftsmodells aus Kapitel zwei, sowie dem Kriterium Timing zugeordnet ist. So entsteht ein Überblick darüber, über welche Kriterien in der Literatur mehr oder weniger geschrieben wurde. Diese Analyse und Zuordnung ist ausgewertet, indem die Quellen mit dem Kriterium Timing genauer betrachtet werden, um die zentrale Fragestellung dieser Arbeit zu beantworten zu versuchen.
Ein kurzes Fazit rundet die Bachelorarbeit ab.
Beim Bitcoin handelt es sich um eine dezentrale virtuelle Währung in einem Peer-to-Peer Netzwerk. Die digitalen Münzen wurden 2008 durch Satoshi Nakamoto erfunden und seit 2009 in Umlauf gebracht. Das angestrebte Ziel des Bitcoin sind Transaktionen zum Erwerb virtueller und realer Güter ohne das Einwirken von Finanzintermediären. Dadurch können Transaktionskosten minimiert werden. Das Vertrauen in solche dritte Parteien wird dabei durch ein mathematisches Konzept ersetzt und durch das Bitcoinnetzwerk und all seine Nutzer sichergestellt. Obwohl die digitalen Münzen eigentlich als Tauschmittel konzipiert wurden, ist der aktuelle Anwendungsbereich noch sehr gering. Die Kursentwicklung hingegen erfuhr seit Anfang 2013 mehrere Berg- und Talfahrten auf den Handelsplattformen für den Bitcoin. Während sich viele wissenschaftliche Arbeiten mit den technischen Aspekten im Bereich der Informatik befassen, klafft im ökonomischen Kontext noch eine große Lücke. Was macht ein Zahlungsmittel eigentlich aus und wie ist der Bitcoin im volkswirtschaftlichen Sinne einzuordnen? Mit diesen Fragestellungen wird sich in dieser Ausarbeitung auseinandergesetzt. Als Vergleichsgröße wurden dabei, auf Basis sorgfältig ausgewählter Literatur, die Aspekte realer Währungen nach ihren Funktionen, Eigenschaften und Formen untersucht. Anschließend wurden die technischen Grundlagen der virtuellen Währung dargelegt, um ebenfalls den Bitcoin darauf anzuwenden. Dabei hat sich gezeigt, dass die digitalen Münzen als virtuelle Währung, gegenüber realen Währungen, noch deutliche Defizite aufweisen. Eine besonders gravierende Schwachstelle stellt dabei die hohe Volatilität des Kurses dar. Sie sorgt dafür, dass der Bitcoin mit einer solchen Instabilität nicht die Wertaufbewahrungsfunktion gewährleisten kann. Da dies ein ausschlaggebendes Kriterium zur Erfüllung der Geldfunktionen darstellt, kann der Bitcoin ebenfalls nicht die Rolle als Zahlungsmittel erfüllen, wie es bei den realen Währungen der Fall ist.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.
Diese Arbeit beschreibt den Entwurf und die Umsetzung einer prototypischen Android-Applikation zum Dokumentieren von Reiserouten. Nach einer kurzen Einführung in die grundlegenden Aspekte des Reisens, der notwendigen Hilfsmittel sowie das Betriebssystem Android wird das Konzept und die Anforderungen an die Anwendung vorgestellt. Anschließend werden die Realisierung der Implementierung erläutert und die Ergebnisse der Evaluation offengelegt.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
Meine Bachelorarbeit ist als Fortsetzung und Weiterentwicklung der Studienarbeit "Erstellung einer HTML 5-basierten Lernoberflache zur Unterstützung der Zielgruppe der AnfängerInnen für das Softwareprogramm CrypTool 2" von Liane Syre, eingereicht am 13.08.2013 an der Universität Koblenz-Landau, konzipiert. Die Inhalte ihrer Studienarbeit dienen somit als Grundlage für die hier vorliegende Bachelorarbeit.
Ich habe im Rahmen meiner Bachelorarbeit einen Prototyp eines teilweise automatisierten Lerntagebuchs entwickelt, welchen ich im Folgenden Vorstellen mochte. Außerdem stelle ich meine ebenfalls eigenständig konzipierte LearnCrypTo-Homepage in dieser Arbeit vor.
Nach einer Einleitung in die Thematik (Kapitel 2) folgt eine Literaturstudie zu Serious Games als Teilbereich des Media-based Learning (Kapitel 3), in welchem auch explizit auf die Führung eines Lerntagebuches und didaktische Konzepte eingegangen wird.
Es folgt eine Beschreibung wichtiger Aspekte bei der Erstellung einer Lernsoftware und gehe im Kontext der Serious Games noch mal auf die Spielerstellung ein (Kapitel 4).
Da meine Bachelorarbeit vor allem darauf ausgerichtet ist, CrypTool 2 AnfängerInnen nahe zu bringen, erläutere ich sodann die für benannte Zielgruppe wichtigsten Funktionen von CrypTool 2 (Kapitel 5).
Dann gehe ich naher auf Inhalt und Aufbau meiner eigens erstellten LearnCrypTo-Homepage ein (Kapitel 6).
Ich erläutere gegen Schluss meiner Arbeit ausgewählte technische Aspekte (Kapitel 7).
In einem abschließenden Fazit versuche ich, die Ergebnisse meiner Arbeit zu bewerten und wage einen kleinen Ausblick (Kapitel 8).
Im Verlaufe der Arbeit wird vermehrt mit einer hauptsachlich englischen Terminologie gearbeitet. Um Missverständnissen vorzubeugen werde ich die englischen Begriffe bei ihrer ersten Verwendung in meiner Arbeit ins Deutsche übersetzen und im Folgenden dann weiter mit der englischen Bezeichnung arbeiten.
Um Lesbarkeit zu fordern benutze ich in meiner Arbeit das generische Maskulinum.
Diese Arbeit erarbeitet einen Vergleich verschiedener medizinischer Medikamenten-Dispenser. Ein Medikamenten-Dispenser ist eine Vorrichtung, die es erlaubt von einer größeren Menge Medikamente, eine kleinere zu entnehmen. Um den Vergleich durchzuführen wurden 15 Anforderungen an diese Dispenser gefunden. Der Einnahmeerleichterung sind die Anforderungen "Organisation", "Erinnerung" und "Ergonomie" zugeordnet. Zur Compliance, also Therapietreue, gehören "Compliance", "Anpassbarkeit", "Selektivität", "Persistenz", "Funktionalität", "Richtigkeit" und "Spezifität/Sensitivität". Damit stellt diese Kategorie die meisten Anforderungen. Die Kategorie Aufbewahrung sammelt "Hygiene", "Darreichungsformen" und "Robustheit". Schließlich wurden die Anforderungen "Übersichtlichkeit" und "Datenschutz" den sonstigen Anforderungen zugeordnet. Anschließend wurden verschiedene Dispenser-Konzepte zunächst vorgestellt und darauf auf die Erfüllung der Anforderungen hin analysiert. Es wurden folgende Konzepte analysiert: Tablettendose, Wochendispenser, Blister, Schlauchbeutel, MEMS, OtCM, elektronischer Dispenser, App. Nach der Analyse konnten die Dispenser miteinander verglichen werden. Es stellte sich heraus, dass alle Konzepte Mängel aufweisen. Daher entwickelte der Autor ein eigenes Konzept, welches alle Anforderungen bis auf zwei gut bis sehr gut erfüllt. Damit stellt es das mächtigste Konzept dar.
The Apple ][ computer was one of the frst three completely assembled systems on the market. It was sold several million times from april 1977 to 1993. This 8 bit home computer was developed by Steve Wozniak and Steve Jobs. They paved the way for the Apple Macintosh computer and the nowadays well known brand Apple with its products.
This thesis describes the implementation of a software emulator for the complete Apple ][ computer system on a single Atmel AVR microcontroller unit (MCU). The greatest challenge consists of the fact that the MCU has only a slightly higher clock speed as the Apple ][. This requires an efcient emulation of the CPU and the memory management, which will be covered later on along with the runtime environment controlling the emulator. Furthermore the hardware implementation into a handheld prototype will be shown.
In summary this thesis presents a successful development of a portable Apple ][ emulator covering all aspects from software design over hardware design ending up in a prototype.
Online Handschrifterkennung chinesischer Schriftzeichen auf androidfähigen mobilen Endgeräten
(2014)
Um mobile Wörterbücher oder Übersetzer zu verwenden, braucht es eine Eingabe. Diese muss zuvor verarbeitet werden, um nutzbar zu sein. Für chinesische Zeichen bietet sich die Handschrift an, da die Schrift hauptsächlich aus Piktogrammen und Ideogrammen besteht.
In dieser Bachelorarbeit wird ein prototypisches Erkennungssystem auf einem mobilen Endgerät implementiert. Die Erkennung soll dabei online und somit während des Schreibens erfolgen. Dies kann dem Benutzer Zeit ersparen, indem verschiedene erkannte Vorschläge zur Laufzeit gegeben werden.
Es werden Grundlagen erläutert und ein Überblick über den aktuellen Stand der Forschung gegeben. Ein Ansatz wird ausgewählt und implementiert, der möglichst schnell ist und wenig Speicherplatz erfordert. Die Implementation wird getestet und es wird gezeigt, dass es möglich ist, eine schnelle Erkennung auf einem kleinen Gerät laufen zu lassen. Es werden Verbesserungen und Erweiterungen vorgeschlagen, sowie ein Ausblick gegeben.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Die vorliegende Arbeit hat gezeigt, dass es möglich ist an bestehenden Studien zum Thema Perceived External Reputation und der Teilnahme an der Implementierung von Dienstleitungsinnovationen anzuknüpfen. Es war sogar möglich die Abhängigkeiten der beiden Themen voneinander herauszustellen. Dies gelang unter zu Hilfenahme von weiteren Einflussfaktoren wie der erwarteten Ansehenssteigerung durch innovatives Verhalten und dem Stolz der Mitarbeiter mit dem eigenen Unternehmen in Verbindung gebracht zu werden.
In dieser Arbeit soll in Form einer Machbarkeitsanalyse untersucht werden, ob der Aufbau eines universitären Startups im Bereich der IT-Beratung möglich ist. Hierzu wird zunächst der Begriff der Beratung, der Beratungsbedarf sowie der relevante Markt näher analysiert. Durch empirische Forschung in Form von persönlichen Interviews mit IT-Unternehmen in der Region Koblenz sollen zudem nähere Erkenntnisse über die Machbarkeit der Unternehmung gewonnen werden. Die Forschungsergebnisse werden in Form einer konkreten Handlungsempfehlung präsentiert.
Ziel der Bachelorarbeit war es, eine moderne Art des Geländespiels "Schnitzeljagd" zu entwickeln. Dieses sollte möglichst auf jedem aktuellen Smartphone spielbar sein, welches mit dem Betriebssystem Android arbeitet. Das Gelände ist begrenzt auf den Universitätscampus Koblenz, somit dient das Spiel auch dazu, den Campus besser kennenzulernen.
Den Benutzern der Campusjagd wird eine mobile Applikation geboten, welche sie anhand von Hinweisen und Rätseln über den kompletten Campus führt, um letztendlich an einen Zielort zu gelangen, an welchem sich ein "Schatz" befindet. Anstatt wie üblich auf dem Gelände Schnitzel bzw. Schnipsel mit Hinweisen zu verstecken, werden bei der Campusjagd QR-Codes aufgehängt, um so den Weg zu markieren. Zur Täuschung sind auch irrelevante Codes zu finden. Die Codes müssen in der richtigen Reihenfolge abgelaufen werden, d. h. von einem Code erhält der Spieler den Hinweis zum jeweiligen Nächsten. Außerdem ist es möglich, dass aus einem QR-Code mehrere Hinweise für nächste Stationen angezeigt werden.
Beaconlose geografische Routingverfahren für Unit-Disk Graphen basieren auf einer beaconlosen Strategie und bieten einen Ansatz zur Verbesserung von lokalen Routingverfahren für Quasi-Unit-Disk Graphen. Der Großteil der lokalen geografischen Routingverfahren für Quasi-Unit-Disk Graphen benötigt 2-lokale Nachbarschaftsinformation und verursacht einen Nachrichtenoverhead. Der in dieser Arbeit entwickelte Beaconlose Clustering Algorithmus zeigt, dass sich Nachrichtenoverhead und Energieverbrauch eines bestehenden nicht beaconlosen Verfahrens mittels beaconloser Strategie optimieren lassen. Der Beaconlose Clustering Algorithmus basiert auf einem geografischen Clustering und konstruiert eine lokale Sicht auf einen ausgedünnten Graphen mit einer konstanten Anzahl von Knoten pro Flächeneinheit. Neben der detaillierten Beschreibung des Algorithmus beinhaltet diese Arbeit einen Korrektheitsbeweis und eine Implementierung mit anschließender Simulation zur Untersuchung der Verbesserung des bestehenden Verfahrens.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
Erweiterung der Konzeption und Implementierung einer Screening Applikation für mobile Endgeräte
(2014)
In dieser Bachelorarbeit werden ein bereits existierendes, generisches Konzept und ein existierender Prototyp für eine Smartphone Applikation zur Aufnahme,Überwachung und Dokumentation von äußerlichen Symptomen oder Betrachtungenrnam menschlichen Körper weiterentwickelt. Die bestehenden Funktionalitätenrnwerden anhand einer Analyse des bisherigen Prototypen ergänzt. Es werden das Konzept sowie dessen Funktionsbausteine, die im bestehenden Prototyp in der Android-Plattform implementiert wurden, auf Schwächen untersucht undrnerweitert. Darüber hinaus werden Optimierungs- und Erweiterungsmöglichkeiten für weiterführende Projekte aufgezeigt.
Im Zeitalter des Web 2.0 gewann das Internet als Plattform, um Dienstleistungen anzubieten oder Waren zu verkaufen in Unternehmen immer mehr Aufmerksamkeit. Vor allem zur Kundenbetreuung können Kundenforen ein nützliches Instrument für Unternehmen sein. Durch die Bereitstellung von Kundenforen können Unternehmen drastisch ihre Supportkosten reduzieren. Dennoch ist es oft schwierig für Unternehmen, den Erfolg von Kundenforen zu messen. In der Forschungsliteratur sind die Determinanten für den Erfolg selten untersucht worden. Die vorliegende Bachelorarbeit beabsichtigt diese Forschungslücke durch Anwendung des Modells von Lin und Lee zur Erfolgsmessung in Online-Communities auf Kundenforen zu schließen. Zusätzlich werden Kennzahlen zur Messung des Erfolgs für dieses Modell diskutiert. Die Auseinandersetzung mit dem Thema führt zu dem Ergebnis, dass das Modell von Lin und Lee zum Großteil auf Kundenforen anwendbar ist, in der Theorie wie auch in der Praxis. Das wurde am Beispiel des 1&1 Kundenforum belegt. Die im theoretischen Teil dieser Arbeit gefundenen Kennzahlen waren genauso in der Praxis relevant. Nichtsdestotrotz sollten sich zukünftige Forschungen stärker auf monetäre Kennzahlen konzentrieren, um den Erfolg von Kundenforen auch finanziell bewertbar zu machen.
Winzige vom Wind getriebene Wellen, flache, lange Wellen, steile sich überlagernde Wellen oder stürmische Brecher, sie alle kommen in jedem der Weltmeere und sogar in kleinen Seen vor. Die Wasseroberfläche ist eines der vielfältigsten Naturphänomene. Nicht nur die Bewegung der Wellen, auch die Spiegelung von Himmel, Sonne und Küste machen die Meeresoberfläche einzigartig. Gerade diese einzigartige Komplexität stellt ihre ganz eigenen Herausforderungen an die Nachahmung solcher Phänomene. Deshalb stellt die Berechnung von Wellen schon seit gut 400 Jahren Mathematiker vor eine große Aufgabe.
In den letzten fünfzig Jahren hat sich diese Herausforderung immer mehr in den Bereich der Informatik verschoben. Computergrafiker versuchen seit Jahrzehnten Wasser realistisch darzustellen. Die Forschung auf diesem Gebiet reicht mittlerweile von einfachen Ansätzen wie Rauschfiltern bis zu mathematisch hoch komplexen Ansätzen, wie der Fourier Transformation.
In der nachfolgenden Arbeit wird sowohl auf die geschichtliche Entwicklung der heutigen Wellentheorien, als auch auf die mathematischen Grundlagen dieser eingegangen. Schwerpunkt der Arbeit ist es, diese Methoden in OpenGL 3.3 zu implementieren.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
In dieser Bachelorarbeit wird die Frage behandelt, ob ein Jump'n Run-Spiel mit Sensorensteuerung für Android-Geräte sinnvoll ist. Hierzu wurde ein Spiel entwickelt, das in unterschiedlichen Level einmal mit und ohne Sensoren steuerbar ist. In einer zweiten Version wird das Spiel komplett anhand von Sensoren gesteuert, damit man später die Steuerungen vergleichen kann. Es wird erklärt, wie das Spiel geplant, entworfen und untersucht wurde. Zudem wird geprüft, ob es schon Spiele mit Sensorensteuerung generell gibt. Die Engine, mit der das Spiel entwickelt wurde, wird ebenfalls vorgestellt. Abschließend erfolgt die Auswertung eines dafür ausgearbeiteten Nutzertests über die Spieltauglichkeit des Spiels hinsichtlich der Steuerung.