004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (163) (entfernen)
Schlagworte
- OpenGL (7)
- Android (5)
- Graphik (4)
- Smartphone (4)
- Android <Systemplattform> (3)
- C++ (3)
- Compute Shader (3)
- Computergraphik (3)
- Computerspiel (3)
- Computervisualistik (3)
- Enterprise 2.0 (3)
- Informatik (3)
- OpenGL Shading Language (3)
- Programmierung (3)
- Routing (3)
- Simulation (3)
- Akkreditierung (2)
- App (2)
- Applikation (2)
- Business Intelligence (2)
- Entwicklung (2)
- GPGPU (2)
- Grafikkarte (2)
- Informationsmanagement (2)
- Instant Messaging (2)
- Netzwerk (2)
- Online-Befragung (2)
- Qualität (2)
- Ray tracing (2)
- Rechnernetz (2)
- Rollenspiel (2)
- Router (2)
- Shader (2)
- Spiel (2)
- Steuerung (2)
- Supply Chain Management (2)
- Umfrage (2)
- VOXEL (2)
- World of Warcraft (2)
- 3D (1)
- 3D-Kartierung (1)
- API (1)
- Ad-Hoc Routing (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Agenten (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Anforderung (1)
- Annotation (1)
- App <Programm> (1)
- Archivierung (1)
- Audiodatei (1)
- Automatische Klassifikation (1)
- Autonomes Fahrzeug (1)
- Autorensystem (1)
- BGV A1 (1)
- BI (1)
- BPM (1)
- BPMN (1)
- Balanced Scorecard (1)
- Bebauungsdichte (1)
- Beleuchtung (1)
- Beschleunigungsensor (1)
- Betriebssystem (1)
- Bewegungsablauf (1)
- Bildanalyse (1)
- Bildverarbeitung (1)
- Blickpunktabhängig (1)
- Brechung (1)
- Browser (1)
- Business Process Modeling (1)
- C-Programmierung (1)
- CIDR (1)
- CSCW (1)
- Chiffrierung (1)
- Cloud Computing (1)
- Cold Chain (1)
- Coloskopie (1)
- Compute-Shader (1)
- Computer Graphics (1)
- Computer Supported Cooperative Work (1)
- Computeranimation (1)
- Computergrafik (1)
- Congestion Control (1)
- Constitutive Model (1)
- Container Entity Modell (1)
- Content Management (1)
- Corruption (1)
- Crowdsourcing (1)
- Darmpolyp (1)
- Data Warhousing (1)
- Data manipulation (1)
- Data-Warehouse-Konzept (1)
- Datenbanksystem (1)
- Design Thinking (1)
- Diagramm (1)
- Diffie-Hellman-Algorithmus (1)
- Digitale Bilder (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Drahtloses lokales Netz (1)
- E-Government (1)
- E-Learning (1)
- E-Partizipation (1)
- EMIL-S (1)
- Echtzeitsystem (1)
- Echtzeitsysteme (1)
- Ecore (1)
- Einstellung (1)
- Elektrischer Servomotor (1)
- Elektronisches Wasserzeichen (1)
- Empfehlungssystem (1)
- Empirische Sozialforschung (1)
- Enterprise Information Management (1)
- Entwurfssprache (1)
- Erstgebärende (1)
- Eulerian grid (1)
- Europäischer Schadensbericht (1)
- Evaluation (1)
- Experiment (1)
- Fabric Simulation (1)
- Fahrerassistenzsysteme (1)
- Faktorenanalyse (1)
- Fast Convolution (1)
- Fehlerverhütung (1)
- Fertilitaet (1)
- Finanzberatung (1)
- FlexViz (1)
- Flow-Erlebnis (1)
- Food Transportation System (1)
- Foodstuff (1)
- Forschungslandkarte (1)
- Fourier (1)
- Framework (1)
- Freiheitsgrad (1)
- Fresnel (1)
- Föderiertes System (1)
- GPS (1)
- GPU (1)
- GSM-Standard (1)
- Game Design (1)
- Geburt (1)
- Geburtshaus (1)
- Geocaching (1)
- Germany (1)
- Gerstner (1)
- Geschäftsprozess (1)
- Geschäftsprozessmodell (1)
- Geste (1)
- Gesteninterpretation (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Glint Center Estimation Algorithmus (1)
- Globale Beleuchtung (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Graphicsprogramming (1)
- Grundschule (1)
- Halbschatten (1)
- Haskell (1)
- Hausgeburt (1)
- Hebamme (1)
- Historisierung (1)
- IP 6 (1)
- IPv6 (1)
- Inflation (1)
- Infobroker (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Flow Ontology (1)
- Information Supply Chain (1)
- Informationsmanagementsystem (1)
- Informationssystem (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integriertes Informationssystem (1)
- Interaktives Fernsehen (1)
- Internet (1)
- Internet of Things (1)
- Internetregulierung (1)
- Internetworking (1)
- Jabber (1)
- Jabber <Programm> (1)
- Join (1)
- Jump'n Run-Spiel (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kinect (1)
- Kinematik (1)
- Kletterer (1)
- Kollaboration (1)
- Kollisionserkennung (1)
- Kommunikationsprotokoll (1)
- Konturfindung (1)
- Konzept (1)
- Kooperatives Informationssystem (1)
- Korruption (1)
- Korrutionsprävention (1)
- Lastenheft (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lehrer (1)
- Lernspiel (1)
- Lernumgebung (1)
- Line Space (1)
- Linespace (1)
- Lokalisation (1)
- MMORPG (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Mann-Whitney (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Merkmalsdetektion (1)
- Metriken (1)
- Micro Finance (1)
- Migration (1)
- Mikrocontroller AVR (1)
- Mikrozensus (1)
- Mister X (1)
- Modell (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Modulnetze (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NPO (1)
- Native language identification (1)
- Network (1)
- Nonprofit-Organisation (1)
- Nvidia CUDA (1)
- OCR (1)
- OWL <Informatik> (1)
- Objektverfolgung (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Onlinesucht (1)
- Ontologie (1)
- Ontologie <Wissensverarbeitung> (1)
- OpenCL (1)
- OpenWrt (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Par (1)
- Parallelmanipulator (1)
- Partikel (1)
- Partikelsystem (1)
- Path Tracing (1)
- Perinatalbogen (1)
- Pfadnachverfolgung (1)
- Pflichtenheft (1)
- Physiksimulation (1)
- Politik (1)
- Pre-Integration (1)
- Prevention (1)
- Privatvermögen (1)
- Probabilistic finite automata (1)
- Prozedurale Synthese (1)
- Prozessanalyse (1)
- Prozesskette (1)
- Prozessmanagement (1)
- Prävention (1)
- Psychohygiene (1)
- Pulsweitenmodulation (1)
- Pupil Center Estimation Algorithmus (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- RDF (1)
- RIPng (1)
- Rangtest (1)
- Ray Tracer (1)
- Ray-Casting (1)
- Raytracing (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Rechnernetze (1)
- Recommender System (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Registratur (1)
- Relationales Datenbanksystem (1)
- Rendering (1)
- Requirements-Engineering (1)
- Research Map (1)
- Rettungsroboter (1)
- Reverberation (1)
- Robbie (1)
- Route Aggregation (1)
- Routen-Aggregation (1)
- SOA-Webservice (1)
- SVG (1)
- Schnelle Faltung (1)
- Schwangerschaft (1)
- Sensor (1)
- Sensorensteuerung (1)
- Serielle Schnittstelle (1)
- Serviceroboter (1)
- Sich langsam verändernde Dimensionen (1)
- Slowly Changing Dimensions (1)
- Social Software (1)
- Soziooekonomisches Panel (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Specular (1)
- Staat (1)
- Starrkörper (1)
- Staukontrollmechanismen (1)
- Stewart-Plattform (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Suchmaschine (1)
- Supernetting (1)
- System Dynamics (1)
- Systemanalyse (1)
- TCP/IP (1)
- TGraph (1)
- TQM (1)
- TRIZ (1)
- Tablet PC (1)
- Taxonomie (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Text (1)
- Texterkennung (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tracing (1)
- Transfer function (1)
- Transferfunktion (1)
- Transformation (1)
- Translation (1)
- University (1)
- Unternehmensnetzwerke (1)
- VST (1)
- Validierung (1)
- Verteilte Systeme (1)
- Videospiel (1)
- Videoübertragung (1)
- Virtual Networks (1)
- Virtuelle Welt (1)
- Visualisierung (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Vorbeugung (1)
- Voxelisierung (1)
- WLAN Fingerprinting (1)
- Wasseroberfläche (1)
- Web 2.0 (1)
- Web Analytics (1)
- Webserver (1)
- Wellen (1)
- Werbeform (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wiederhall (1)
- Wilcoxon-Rangsummentest (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wrapping (1)
- XMPP (1)
- Zufriedenheit (1)
- accelerometer (1)
- advertisements (1)
- amtliche Haushaltsbefragungen (1)
- android (1)
- archiving (1)
- area light (1)
- attitude (1)
- computer science (1)
- concept (1)
- deutsche Hochschulen (1)
- development (1)
- diagram (1)
- experiment (1)
- factor analysis (1)
- game (1)
- general purpose (1)
- governance (1)
- grUML (1)
- graphics card (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- interactive application (1)
- interaktiv (1)
- interaktive Applikation (1)
- interaktiven (1)
- jOWL (1)
- jump'n run game (1)
- knowledge base (1)
- line space (1)
- mann-whitney (1)
- menschliches Auge (1)
- metasearch engine (1)
- metrics (1)
- midwife (1)
- model (1)
- modulares System (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- online survey (1)
- ontology (1)
- out-of-hospital birth (1)
- perinatal (1)
- policy modelling (1)
- pregnancy (1)
- procedural content generation (1)
- quality (1)
- quality assurance (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- reflection (1)
- refraction (1)
- rigid body (1)
- search engine (1)
- sensor control (1)
- shader (1)
- soft shadow (1)
- survey (1)
- taxonomy (1)
- tool-integration (1)
- unofficial household surveys (1)
- video game (1)
- video games (1)
- virtuelle Netze (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
- Übersetzung (1)
In dieser Arbeit wird das in letzter Zeit zunehmend wichtiger werdende Thema der Routenaggregation und deren Auswirkung auf die Verhinderung von Routingschleifen behandelt. Als Basis für die Implementation und Evaluation dient das an der Universität Koblenz entwickelte RMTI-Protokoll, bei dem es sich um eine Weiterentwicklung des in RFC2453 spezifizierten Routing Information Protocol Version 2 handelt. Dieses Protokoll kommt, in dieser Arbeit, innerhalb der virtuellen Netzwerkumgebung Virtual Network User-Mode-Linux (VNUML) zum Einsatz. Mit VNUML ist es möglich konkrete Netzwerkszenarien virtuell zu betreiben und zu untersuchen. Der RMTI ist bereits in der Lage topologische Schleifen zu erkennen und dadurch das Entstehen von Routingschleifen nachweislich zu verhindern. Im Rahmen der Arbeit wird die Funktionsweise des RMTI beschrieben und anschließend darauf eingegangen, unter welchen Umständen eine Routenaggregation vorgenommen werden darf ohne das die Aggregation Routinganomalien nach sich zieht. Um diese Änderungen vornehmen zu können ist ein tieferes Verständnis der Struktur von Routingtabellen notwendig, daher wird deren Aufbau anhand von Beispielen erläutert. Im Anschluss wird beschrieben an welchen Stellen Änderungen am RMTI vorgenommen werden müssen um trotz Aggregation eine Verhinderung von Routingschleifen bewirken zu können. Am Ende der Arbeit findet abschließend eine Evaluation der Reorganisationsfähigkeit des virtuellen Netzes bei vorgenommener Routenaggregation statt.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
In dieser wissenschaftlichen Ausarbeitung werden auf Basis einer Literaturrecherche Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen identifiziert und beschrieben. Darüber hinaus werden im Verlauf der Arbeit verschiedene Modelle adaptiert, erstellt und fortlaufend erweitert. Dieser Prozess mündet in einem integrativen Modell. Die Grundproblematik besteht in der Notwendigkeit externe Wissensquellen in die eigenen Betriebsabläufe einfließen zu lassen. Dieses Modell der Open Innovation wird in der Literatur besonders für kleine und mittelständische Unternehmen als unausweichlich angesehen, um konkurrenzfähig zu bleiben. Die Gründe dafür werden ebenso wie die Möglichkeiten einer erfolgreichen Zusammenarbeit dargelegt und beschrieben. Deutschland weist im internationalen Vergleich eine verhältnismäßig hohe Beteiligung an Wissens- und Technologietransfers auf. Dennoch geht eine Vielzahl von Unternehmen davon aus, ihre Institution würde nicht von Wissensverwertungsmaßnahmen profitieren.
In der Literatur existiert kein Modell, welches die Verwertungsschritte und die Anreize für Universitäten und Unternehmen verbindet. Somit schließt diese Ausarbeitung die identifizierte Lücke durch das in Kapitel 4.4 abgebildete integrative Modell. Durch die ausformulierten Anreizfaktoren können sowohl Universitäten und Unternehmen als auch deren Mitarbeiter erkennen, ob eine Zusammenarbeit bezüglich eines aktuellen Forschungsthemas sinnvoll erscheint.
Während auf Basis der Literaturrecherche zunächst theoretische Grundlagen definiert werden, folgt im Anschluss eine Schilderung der Anreizfaktoren der Wissensverwertung. Dabei wird zwischen materiellen und immateriellen Anreizen unterschieden. Diese Differenzierung und die Unterscheidung von extrinsischer und intrinsischer Motivation sind im Hinblick auf die folgenden Ergebnisse von großer Bedeutung. Infolgedessen wird ein Wissensverwertungsmodell vorgestellt und auf den vorliegenden Sachverhalt angepasst, bevor mit der Erweiterung des Modells um eine zusätzliche Perspektive und dem Hinzufügen der Anreizfaktoren begonnen wird.
Durch das beschriebene Vorgehen entsteht ein integratives Modell, das sowohl für Universitäten und deren Wissenschaftler als auch für kleine und mittelständische Unternehmen und deren Mitarbeiter von Bedeutung sein kann.
Das Ausgangsproblem, das zu dieser Arbeit motiviert, ist die fehlende Darstellungsmöglichkeit von Abschluss- und Forschungsarbeiten der Forschungsgruppe BAS. Viele Arbeiten liegen nur in gedruckter Version vor. Vereinzelt werden auch Webseiten von Studenten erstellt. Diese sind aber nicht einheitlich.
In einem ersten Schritt wird ein passendes Forschungsvorgehen für das zu lösende Problem erstellt. Dabei wird sich die Arbeit an den konstruktionsorientierten Ansatz des Design Science Research nach Hevner [2007] richten. Diese Arbeit löst das Problem durch das Erstellen einer Web 2.0 Internetpräsenz. Dazu wird das freie Content Management System Drupal benutzt. Für die Umsetzung des Zielsystems wird ein Anforderungskatalog erstellt. Dieser wird mit Hilfe verschiedener Methoden erarbeitet. Hierzu zählen Mock Ups, Interviews, Kollaborationsszenarien und Personas. Um die erhobenen Anforderungen zu erfüllen, werden eine Reihe von Zusatzmodulen der Kernversion von Drupal hinzugefügt. Hat das System einen fortgeschrittenen Status erreicht, wird dieses durch Szenarien und Benutzter getestet. Ein Ergebnis dieser Arbeit ist zum einen ein einsatzbereiter Prototyp, mit dem es möglich ist, mehrere Abschluss- und Forschungsarbeiten webfähig und einheitlich darzustellen. Ein weiteres Ergebnis sind Guides, die das Bedienen des Prototypen beschreiben. Den Abschluss der Arbeit bildet ein Fazit und ein Ausblick auf die weitere Nutzung des Prototypen.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
Die Arbeit stellt Path Tracing zum Rendern von Bildern mitrnglobaler Beleuchtung vor. Durch die Berechnung der Rendergleichung, mithilfe von Zufallsexperimenten, ist das Verfahren physikalisch plausibel. Entscheidend für die Qualität der Ergebnisse ist Sampling. Der Schwerpunktrnder Arbeit ist die Untersuchung verschiedener Samplingstrategien. Dazu werden die Ergebnisse unterschiedlicher Dichtefunktionen verglichenrnund die Methoden bewertet. Außerdem werden Effekte, wie beispielsweise Depth of Field, mittels Sampling visualisiert.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
Mit der Reakkreditierung der Studiengänge im Fachbereich Informatik der Universität Koblenz-Landau werden zukunftsweisend neue Studiengänge angeboten. Für die weitere Planung und Gestaltung der einzelnen Studiengänge ist die Meinung der Studierenden ein wesentlicher Indikator. Informationen zu den neuen Studiengängen während des Prozesses der Akkreditierung sind jedoch für Studierende nicht vorhanden. Studierende haben ein Interesse an den neuen Studiengängen und der neuen Prüfungsordnung und darüber hinaus wäre eine aktive Beteiligung im Entscheidungsprozess wünschenswert. Das Konzept der E-Partizipation ist eine Möglichkeit dieses Bedürfnis zu befriedigen. Es bietet die Gelegenheit über das Thema der Akkreditierung zu diskutieren und eigene Ideen und Meinungen in den Entscheidungsprozess einzubringen. Die Bachelorarbeit beschreibt ein E-Partizipationsprojekt an der Universität Koblenz-Landau über die Akkreditierung die Studiengänge des Fachbereichs Informatik. Unter Nutzung des Referenz-Frameworks von Scherer und Wimmer (2011) wird dieses Projekt durchgeführt. Weiterhin wird der Akkreditierungsprozess modelliert, um ein besseres Verständnis über den ganzen Prozess zu erhalten und Möglichkeiten zu identifizieren das E-Partizipationsprojekt zu integrieren. Die Ergebnisse des Projekts werden mit einer Online-Umfrage über die E-Partizipationsplattform erhoben. Mit den Ergebnissen der Umfrage und den Erfahrungen, die bei der Durchführung des Projekts gesammelt wurden, werden Empfehlungen für weitere E-Partizipationsprojekte formuliert. Zusätzlich wird das Referenz-Framework von Scherer und Wimmer (2011) kritisch betrachtet.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
Beim Bitcoin handelt es sich um eine dezentrale virtuelle Währung in einem Peer-to-Peer Netzwerk. Die digitalen Münzen wurden 2008 durch Satoshi Nakamoto erfunden und seit 2009 in Umlauf gebracht. Das angestrebte Ziel des Bitcoin sind Transaktionen zum Erwerb virtueller und realer Güter ohne das Einwirken von Finanzintermediären. Dadurch können Transaktionskosten minimiert werden. Das Vertrauen in solche dritte Parteien wird dabei durch ein mathematisches Konzept ersetzt und durch das Bitcoinnetzwerk und all seine Nutzer sichergestellt. Obwohl die digitalen Münzen eigentlich als Tauschmittel konzipiert wurden, ist der aktuelle Anwendungsbereich noch sehr gering. Die Kursentwicklung hingegen erfuhr seit Anfang 2013 mehrere Berg- und Talfahrten auf den Handelsplattformen für den Bitcoin. Während sich viele wissenschaftliche Arbeiten mit den technischen Aspekten im Bereich der Informatik befassen, klafft im ökonomischen Kontext noch eine große Lücke. Was macht ein Zahlungsmittel eigentlich aus und wie ist der Bitcoin im volkswirtschaftlichen Sinne einzuordnen? Mit diesen Fragestellungen wird sich in dieser Ausarbeitung auseinandergesetzt. Als Vergleichsgröße wurden dabei, auf Basis sorgfältig ausgewählter Literatur, die Aspekte realer Währungen nach ihren Funktionen, Eigenschaften und Formen untersucht. Anschließend wurden die technischen Grundlagen der virtuellen Währung dargelegt, um ebenfalls den Bitcoin darauf anzuwenden. Dabei hat sich gezeigt, dass die digitalen Münzen als virtuelle Währung, gegenüber realen Währungen, noch deutliche Defizite aufweisen. Eine besonders gravierende Schwachstelle stellt dabei die hohe Volatilität des Kurses dar. Sie sorgt dafür, dass der Bitcoin mit einer solchen Instabilität nicht die Wertaufbewahrungsfunktion gewährleisten kann. Da dies ein ausschlaggebendes Kriterium zur Erfüllung der Geldfunktionen darstellt, kann der Bitcoin ebenfalls nicht die Rolle als Zahlungsmittel erfüllen, wie es bei den realen Währungen der Fall ist.
Im Rahmen dieser Arbeit wird ein Programm in Java entwickelt, mit dem man sich beliebige Netzwerke graphisch anzeigen lassen kann. Diese Netzwerke müssen im Vorfeld mit Hilfe eines Configuration-Files beschrieben werden und dürfen nur aus Layer-2-Switches und Hosts aufgebaut sein. Nach Ladung eines solchen Files ins Programm kann das Netzwerk dort visualisiert werden. Darauf kann man dann den Spanning-Tree-Algorithmus IEEE 802.1D laufen lassen. Das Programm bietet auch die Möglichkeit, verschiedene Attribute der Switches und ihrer Ports nach Belieben einzustellen. Neben dem reinen Algorithmus werden die Hosts sich gegenseitig auch noch Normdaten zuschicken, wodurch die einzelnen STA-Mac-Tabellen aufgebaut werden. Ein weiteres Ziel ist es, die Switches mittels Threads parallel und unabhängig voneinander arbeiten zu lassen. Dies hat zur Folge, dass die Switches auf kein globales Wissen zugreifen können. Es gibt keine übergeordnete Instanz, die alle Switches lenkt und steuert. Diese Realisierung kommt der echten Arbeitsweise eines Netzwerks näher, als wenn alle Switches immer sofort über alle Abläufe Bescheid wissen.
TGraphBrowser
(2010)
Im Rahmen dieser Arbeit wird ein Webserver implementiert, mit dem man sich Graphen, die mit Hilfe des Java-Graphenlabors (JGraLab) erzeugt wurden, in einem Browser anzeigen lassen kann. Es werden dem Nutzer eine tabellarische und eine graphische Darstellung des Graphen angeboten. In jeder der beiden Darstellungsarten ist das Navigieren durch den Graphen möglich. Um Graphen mit mehreren tausend Elementen für den Nutzer überschaubarer zu machen, können die angezeigten Kanten und Knoten nach ihren Schematypen gefiltert werden. Ferner kann die dargestellte Menge an Graphelementen durch eine GReQL-Anfrage oder durch explizite Angabe bestimmt werden.
Aktuell stehen nur wenige Informationen über die Verbreitung von Cloud Computing in deutschen Hochschulen zur Verfügung. Ein besseres Verständnis vom Stand der Technik in diesem Bereich würde die Modernisierung der Hochschulen in Deutschland und die Entwicklung von geeigneteren Cloud Produkten und neuen Geschäftsmodellen für diese Nische ermöglichen. Zu diesem Zweck wird eine Literaturrecherche über Cloud Computing und IT-Verbreitung und eine empirische Untersuchung mit einem Online-Fragebogen an Hochschulen in Deutschland durchgeführt, um den aktuellen Stand von Cloud Computing an deutschen Hochschulen zu untersuchen.
Ebenso fragt die Untersuchung nach den Chancen und Risiken, die die Mitarbeiterinnen und Mitarbeiter von Hochschulrechenzentren bei der Nutzung von Cloud Computing sehen. Im Anschluss daran werden Experten aus Universitäten und Unternehmen interviewt, um die gesammelten Informationen vom Online-Fragebogen und während der Forschung zu erweitern. Die erwarteten Ergebnisse werden dazu dienen, um eine Empfehlung für Hochschulen in Deutschland zu verfassen, ob sie Cloud Technologien schon benutzen sollen oder nicht. Darüber hinaus wird eine Liste mit kritischen Leitfragen vorgestellt, die vor der Migration zum Cloud Computing berücksichtig werden sollte.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Im Rahmen dieser Arbeit wird ein Webservice (SOA) entworfen und implementiert, mit dem eine Audiodatei auf Inhalte eines Wasserzeichens ferngesteuert überprüft werden kann. Die Arbeit ist Teil des URM-Projekts (Usage Rights Management), das an der Universität Koblenz-Landau entwickelt wird. Dabei handelt es sich um ein Konzept der Lizenzierung, bei dem die Nutzer über ihre Rechte an erworbenen digitalen Gütern informiert werden. Die Arbeit stellt am Beispiel von WAV-Dateien einen rudimentären Weg dar, wie im Rahmen von URM die Informationen, die bei der Lizenzerstellung verwendet werden, aus einem digitalen Medium extrahiert werden können.
Die vorliegende Arbeit stellt eine Rigid-Body Physik-Engine vor, deren Schwerpunkt auf der Kollisionserkennung per GPU liegt. Die steigende Performanz und Zugänglichkeit moderner Grafikkarten sorgt dafür, dass sich diese auch für Algorithmen nutzen lassen, die nicht nur zur Bilderzeugung gedacht sind. Dieser Vorteil wird genutzt, um eine effiziente auf Partikeln basierende Kollisionserkennung zu implementieren. Mit Hilfe einer Testumgebung wird dann der Performance-Unterschied zwischen CPU und GPU dargestellt.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Prävention von Korruption
(2006)
Zielsetzung: Zunächst erfolgt die Vorstellung der aus der Fachliteratur bekannten Präventionsmaßnahmen gegen Korruption sowie deren kritische Würdigung. Anschließend werden diese zu Präventivdiskursen anderer Phänomene des unternehmerischen Alltags, wie z. B. Sicherheit/Gesundheit, Qualität und Umweltschutz, in Bezug gesetzt, um so mögliche Gemeinsamkeiten und/oder Gegensätze bei der Vorgehensweisen offen zu legen und deutlich zu machen, in wie weit sich diese gegenseitig befördern.
Forschungszusammenhang: Die Arbeit steht im Forschungszusammenhang zur Bekämpfung der Wirtschaftskriminalität, mit dem Schwerpunkt Korruption, in öffentlichen und privaten Unternehmen. Die Fachliteratur weist bereits ein weites Spektrum an Vorschlägen, sowohl präventiver als auch repressiver Natur, zur Bekämpfung von Korruption in Unternehmen auf. Diese werden in ihrer Wirksamkeit zu erfolgreichen Bekämpfung der Korruption aber oft noch kritisch beäugt. Eine Bezugnahme der bekannten Methoden zu Präventionsdiskursen anderer unternehmensinterner Phänomene wurde bisher durch die Fachwelt weitgehend vernachlässigt.
API Migration bezeichnet den Wechsel einer benutzten API eines Programms in eine andere. Eine spezielle Form ist die sogenannte wrapper-basierte API Migration. In diesem Fall wird die API gewechselt, ohne das eigentliche Programm zu berühren. Sie wird unter Benutzung der neuen API reimplementiert. Dieser so genannte Wrapper besitzt das Interface der alten API, benutzt jedoch die Implementierung der neuen.
Dies ist ein interessanter Ansatz, da der Wrapper in jedem Programm eingesetzt werden kann, das bislang die alte API verwendet hat.
Um diesen Vorgang reproduzierbar zu machen, entwickeln wir eine ranking-basierte Methode, um einen Wrapper zu entwickeln. Hierbei implementieren wir abhängig von fehlschlagenden Testfällen immer die API-Methode mit der jeweils höchsten Priorität. So können wir jeden Implementierungssschritt rekonstruieren.
Im ersten Schritt entwickeln wir eine Infrastruktur, mit der wir Testsuites von Java-Projekten starten und messen können.
Mittels dieser Basis können wir nun die Ranking-Methode anweden, um einen Wrapper zu entwickeln.
Diese Arbeit stellt den Faltungshall vor, ein Verfahren, das es ermöglicht, in neutral klingenden Räumen aufgenommenes Audiomaterial mit realistisch klingendem Nachhall zu versehen. Dabei wird vor allem auf die Möglichkeit eingegangen, den Effekt auf einer GPU mit Hilfe von OpenCL zu berechnen, um die hohe Parallelisierbarkeit des Problems zu seiner Lösung zu nutzen. Ziel ist es, ein VST-Plugin entwickeln zu können, das den GPU-beschleunigten Faltungsalgorithmus in verschiedener Audiosoftware nutzbar macht.
Unternehmen in Netzwerken
(2007)
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Die vorliegende Arbeit befasst sich mit der Anwendung und Optimierung globaler Beleuchtung in dreidimensionalen Szenen. Dabei wird nicht nur die direkte Beleuchtung in Abhängigkeit einer oder mehrerer Lichtquellen, sondern auch indirekte Beleuchtung durch umliegende Objekte berücksichtigt. Schwerpunkt dieser Arbeit ist es, die Ergebnisse eines globalen Beleuchtungsverfahrens durch die Implementation unter OpenGL 4.4 zu verbessern. Dies geschieht mithilfe einer Voxelisierung der Szene. Durch eine Traversierung der entstehenden Voxel-Struktur werden zusätzliche Informationen der Szene entnommen, was zu einer realistisch wirkenden globalen Beleuchtung beiträgt.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
Next Word Prediction beschreibt die Aufgabe, das Wort vorzuschlagen, welches ein Nutzer mit der höchsten Wahrscheinlichkeit als Nächstes eingeben wird. Momentane Ansätze basieren auf der Analyse sogenannter Corpora (große Textdateien) durch empirischen Methoden. Die resultierende Wahrscheinlichkeitsverteilungen über die vorkommenden Wortsequenzen werden als Language Models bezeichnet und zur Vorhersage des wahrscheinlichsten Wortes genutzt. Verbreitete Language Models basieren auf n-gram Sequenzen und Smoohting Algorithmen wie beispielsweise dem modifizierten Kneser-Ney Smoothing zur Anpassung der Wahrscheinlichkeit von ungesehenen Sequenzen. Vorherige Untersuchungen haben gezeigt, dass das Einfügen von Platzhaltern in solche n-gram Sequenzen zu besseren Ergebnissen führen kann, da dadurch die Berechnung von seltenen und ungesehenen Sequenzen weiter verbessert wird. Das Ziel dieser Arbeit ist die Formalisierung und Implementierung dieses neuen Ansatzes, wobei zusätzlich das modifizierte Kneser-Ney Smoothing eingesetzt werden soll.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Es werden Rezipienten-Kommentare der Videoplattform YouTube zu den jeweils fünf erfolgreichsten Liedern der Jahre 2011 und 2012 nach nostalgischen Inhalten untersucht. Diese als nostalgisch identifizierten Kommentare werden inhaltlich analysiert und ausgewertet. Es soll herausgefunden werden, ob nostalgische Inhalte in Musikstücken Erfolgsfaktoren sind. Mittels des Uses-and-Gratifications-Ansatzes wird ermittelt welchen Zweck Rezipienten mit dem Konsum von Nostalgie auslösender Musik verfolgen. Musik ist ein deutlich stärkerer Nostalgieauslöser als das Musikvideo, wohingegen Nostalgie positiven und/oder negativen Affekt auslöst. Zudem wurde persönliche Nostalgie sehr viel häufiger identifiziert als historische Nostalgie. Weiterhin hat das Liedelement Liedtext ein deutlich größeres persönlich-nostalgisches Potential als andere Liedelemente. Personen und bedeutsame Ereignisse scheinen die häufigsten Objekte während persönlich-nostalgischer Träumerei zu sein. Rezipienten konsumieren nostalgische Musik, um in ihnen gewollt positive und/oder negative Emotionen hervorzurufen. Somit scheint Nostalgie in Musik bestimmte Bedürfnisse der Rezipienten zu befriedigen und es kann angenommen werden, dass Nostalgie als ein Erfolgsfaktor angesehen werden kann.
Das Kommunikationsverhalten hat sich in den letzten Jahren durch die Smartphonenutzung verändert. Die Nutzer kommunizieren oft nur noch über den elektronischen Weg. Die persönliche Kommunikation, außerhalb des Smartphones, nimmt ab. Das Umfeld gerät unterdessen in Vergessenheit. In der vorliegenden Arbeit werden verschiedene Spielkonzepte entwickelt, welche die Kommunikation steigern sollen. Realisiert wird der Ansatz in einer prototypischen Stadtführer-App, nach den Spielkonzepten von "Scotland Yard" und "Schnitzeljagd". Während der Nutzung müssen die Spieler verschiedene Aufgaben lösen. Welches Spielkonzept sich in Bezug auf die Kommunikationsförderung am besten eignet, wird in einer Evaluation analysiert.
Diese Arbeit versucht zu klären, ob der richtige Zeitpunkt für eine innovative Veränderung eines Geschäftsmodells ermittelt werden kann. Wenn ja, gilt es herauszufinden, wann dieser Zeitpunkt eintritt.
In einer kurzen Einführung sind die Problemstellung und die Ziele dieses Themas zusammengefasst und die Vorgehensweise der Literaturrecherche, sowie deren Bearbeitung beschrieben.
Es folgen die drei Hauptkapitel, welche inhaltlich aufeinander aufbauen. In dem Kapitel zwei sind Geschäftsmodelle thematisiert. Hier sind zunächst aus verschiedenen Quellen Definitionen des Begriffs "Business Model" herausgearbeitet, damit ein allgemeines Verständnis der Bedeutung eines Geschäftsmodells gewährleistet ist. Diese Definitionen sind durch das von Chesbrough und Rosenbloom (2002) praktische Beispiel der Nutzung eines Geschäftsmodells des Unternehmens Xerox Corporation gestützt. Im nächsten Schritt gilt es Typen von Business Models zu identifizieren. Als Quelle dient hierfür Weill et al (2005).
Der letzte Abschnitt von Kapitel zwei beschäftigt sich mit den sechs Dimensionen eines Geschäftsmodells nach Bieger und Reinhold (2011). Diese sechs Dimensionen spielen zum Ende dieser Arbeit eine Rolle als Kriterien für die Analyse heutiger Literatur zum Timing von Geschäftsmodellen.
Kapitel drei ist gleichzeitig Teil zwei der drei Hauptkapitel. Hier liegt der Fokus auf Innovationen. Der Begriff Innovation ist zunächst definiert und seine Wichtigkeit dargestellt, bevor verschiedene Arten von Innovationen beschrieben werden. Die einzelnen Innovationsarten leiten sich aus den Differenzierungskriterien nach Vahs und Brem (2013) ab. Um auch an dieser Stelle die Realität aus Unternehmenssicht näherzubringen, sind Fragestellungen aufgeführt, welche ein Geschäftsführer sich stellen sollte, wenn er sein Geschäftsmodell verändern möchte oder muss. Literaturgrundlage dieser Fragestellungen ist ein Artikel von Zott und Amit aus dem Jahr 2010.
Nach der umfassenden Klärung des Begriffs Innovation und kurzer Hilfestellung für Geschäftsführer folgt eine Beschreibung zweier Methoden, um Geschäftsmodelle innovativ zu verändern. Die erste Methode ist die Nutzung des St. Galler Business Model Navigators nach Gassmann, Frankenberger und Csik (2013). Der St. Galler Business Model Navigator wurde an der Universität St. Gallen in der Schweiz von dem Institut für Technologiemanagement entwickelt.
Die zweite beschriebene Methode für Business Model Innovation ist das Business Model Canvas Tool nach Osterwalder und Pigneur (2010), welches auf die sogenannten "nine building blocks" aufbaut.
Das letzte Hauptkapitel dieser Arbeit bezieht sich auf dessen zentrale Fragestellung mit dem Stichwort Timing. Hier wird mit einem praktischen Beispiel von Timing von technologischen Innovationen begonnen, der IBM Mainframe Case, analysiert von Mahajan und Muller (1996). Danach folgt eine kurze Zusammenfassung des Standes in der heutigen Literatur zum Thema Timing. Im nächsten Schritt ist ein eigener Beitrag zum Thema "Business Model Innovation Timing" geschrieben, weswegen sich Literaturangaben in diesem Abschnitt auf dem Minimum halten.
Diese Bachelorarbeit schließt ab mit der eigenen Analyse von heutiger Literatur zum Timing von Geschäftsmodellen. Ergebnis dieser Analyse ist eine Tabelle mit einer 20 x 7 Matrix, wo der Inhalt zwanzig ausgewählter Quellen den sechs Dimensionen eines Geschäftsmodells aus Kapitel zwei, sowie dem Kriterium Timing zugeordnet ist. So entsteht ein Überblick darüber, über welche Kriterien in der Literatur mehr oder weniger geschrieben wurde. Diese Analyse und Zuordnung ist ausgewertet, indem die Quellen mit dem Kriterium Timing genauer betrachtet werden, um die zentrale Fragestellung dieser Arbeit zu beantworten zu versuchen.
Ein kurzes Fazit rundet die Bachelorarbeit ab.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Parallelmanipulatoren, welche den Stewartmechanismus nutzen, ermöglichen die präzise Ausführung von Aufgaben in einem begrenzten Arbeitsraum. Durch die Nutzung von sechs Freiheitsgraden wird eine hohe Flexibilität der Positionierung erreicht. Die robuste Konstruktion sorgt zudem für ein sehr gutes Verhältnis von Gewicht zu Nutzlast.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer flexiblen Softwarelösung zur Ansteuerung einer Stewartplattform. Dies umfasst ein Modell der Plattform, welches zu Testzwecken dient. Es werden zunächst die mathematischen Grundlagen der Inversen Kinematik erarbeitet aufbauend auf einem zuvor definierten Bewegungsmodell. Es folgt die Entwicklung einer generischen Architektur zur Übermittlung und Auswertung von Steuerkommandos vom PC. Die Implementierung geschieht in C und wird in verschiedene Module aufgeteilt, welche jeweils einen Aufgabenbereich der Positionskontrolle oder der Hardwarekommunikation abdecken. Es wird zudem eine graphische Nutzeroberfläche vorgestellt, über die man die Position der Plattform manuell verändern kann. Eine automatische Ansteuerung wird im folgenden Anwendungsbeispiel beschrieben, wo die Plattform mit frequentiellen Beschleunigungswerten einer Achterbahnsimulation beliefert wird.
Moderne Groupware- und Social Software Systeme nehmen nicht nur im privaten Nutzerbereich eine immer stärkere Rolle ein, sondern bergen vor allem für Unternehmen einen noch nicht vollständig erfassten Mehrwert. Erkenntnisse und Erfahrungen aus Praxis und Forschung zeigen, dass Web 2.0 Tools im Unternehmenseinsatz zu einem Mehrwert führen können, wenn sie im richtigen Kontext eingesetzt und in der entsprechenden Kultur eingebettet sind. Sie unterstützen insbesondere bei der Meinungsäußerung, Kollaboration und Selbstorganisation. Vor allem Social Software und Social Networking werden von der Gartner Group, einem der weltweit führenden Marktanalysten von Business Software, im Jahr 2009 unter den zehn für Unternehmen strategisch relevanten Technologien geführt. Trotzdem gibt es gegenwärtig kaum Systeme, die alle erforderlichen Funktionalitäten von Groupware und Social Software in einer Lösung vereinen. Eine der erfolgreichsten Softwaresuiten im Bereich Groupware stellt die Lotus Notes/Domino Lösung von IBM dar. Anhand dieser Softwaresuite wird in der vorliegenden Arbeit gezeigt, wie am Beispiel einer universitären Forschungsgruppe Groupware-Systeme in Kombination mit Social Software in eine Enterprise 2.0 Arbeitsumgebung überführt werden können. Dabei werden "ältere" Groupware Anwendungen, wie E-Mail und Kalenderfunktionen, mit neueren Werkzeugen wie Blogs, Wikis oder Social Bookmarking verknüpft. Das Ergebnis zeigt, dass technische Veränderungen zwar schnell umzusetzen sind, Veränderungen im Kommunikations- und Arbeitsalltag von Menschen allerdings nur langsam erreicht werden. Die Forschungsgruppe für Betriebliche Anwendungssysteme in Koblenz untersucht und evaluiert neue Werkzeuge für die CSCW-Forschung, nutzt intern Groupware zur Arbeitsunterstützung und setzt den ihr übertragenen Lehrauftrag um. Von den an der Lehre beteiligten Parteien, z.B. Studierende und Dozenten, werden die gleiche Flexibilität und das Wissen um moderne Arbeitsformen verlangt, die auch Unternehmen aktuell an ihre Mitarbeiter stellen. Für den Umgang mit modernen Arbeitsformen, Werkzeugen und verschieden Endgeräten bedarf es Erfahrungen und Kompetenzen. Diese Kompetenzen sind sowohl in Bildungseinrichtungen wie auch in Unternehmen über alle Altersschichten aufzubauen. Für den Aufbau und die Schulung solcher Kompetenzen wurde am Standort Koblenz ein Hochschul Competence Center gegründet. Die Notwendigkeit und das Angebot der Schulung bezieht sich dabei nicht nur auf ältere Generationen, sondern auch auf die gerne als "Digital Natives" oder nach 1980 geborenen Generationen, da diese entgegen anders lautender Annahmen nicht automatisch über die geforderten Kompetenzen verfügen. Enterprise 2.0 einzuführen bedarf einer klaren Managemententscheidung. Die Schulung der Kompetenzen sowie die Nutzung von Enterprise 2.0 bedarf der Akzeptanz und somit einer partizipativen Beteiligung.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
In den letzten Jahren ist eine steigende Verbreitung von Touchscreen-Geräten zu verzeichnen. Ihre Bedienung unterscheidet sich grundlegend von der mit Maus und Tastatur. Durch die Eingabe mit Gesten oder mehreren Fingern kann es schwierig sein den Aktionen eines Anderen zu folgen. Probleme entstehen durch die Verdeckung des Bildschirms mit der Eingabehand. Sieht man nur den Bildschirminhalt, zum Beispiel bei einer Videoübertragung, gehen Informationen über die Eingabe verloren.
In dieser Arbeit wird ein System entwickelt, das die kollaborative Arbeit an voneinander entfernten Touchscreen-Geräten verbessern soll. Dazu wird aus den Tiefendaten eines Kinect Sensors eine grafische Repräsentation der Eingabehand erstellt. Durch Einblendung dieser Visualisierung soll es einem Anwender erleichtert werden den Eingaben eines Anwenders zu folgen. Bedienkonzepte, wie zum Beispiel Gesten, sollen dadurch besser vermittelt werden. Außerdem soll so die Möglichkeit geschaffen werden, Informationen über eine gemeinsame Problematik effizienter auszutauschen. Deshalb wurde ein Testsystem mit zwei Arbeitsplätzen entwickelt. Darin übernimmt ein Anwender die Rolle des Erklärenden und führt einen zweiten Anwender, den Ausführenden, durch verschiedene Testszenarien. Hierbei stehen ihm bei einem Teil der Aufgaben die Visualisierung der Hand zur Verfügung, während er in anderen Aufgaben nur verbal mit seinem Gegenüber kommunizieren kann.
Im Rahmen einer Evaluation wird das System auf seine Effizienz zur Bedienung von Touchscreen-Systemen überprüft. Des Weiteren wird untersucht, inwieweit die grafische Qualität den gestellten Anforderungen genügt, um einen Mehrwert für die Anwendung zu bieten.
Diese Arbeit vermittelt die mathematischen Grundlagen des Ray-Casting Algorithmus und bespricht eine interaktive Umsetzung auf Grafikkarten mit Hilfe einer modernen Schnittstelle. Die Implementation erfolgt im Rahmen eines umfassenden Programmes, welches weitere Techniken und Verbesserungen des Algorithmus für den Nutzer anwählbar macht. Unter anderem wird von Transferfunktionen und lokaler Beleuchtung Gebrauch gemacht, um realistische Materialien darstellen zu können. Die Benutzeroberfläche bietet die Möglichkeit, Volumina zu importieren, Transferfunktionen zu definieren, Parameter der Darstellung einzustellen und weitere Techniken zu aktivieren, deren Grundlagen und Umsetzung ebenfalls in dieser Arbeit dargelegt werden. Der Nutzen der anwählbaren Optionen wird je nach Fall auf optische Qualität oder Vorteil in der Performance hin untersucht.
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
Beaconlose geografische Routingverfahren für Unit-Disk Graphen basieren auf einer beaconlosen Strategie und bieten einen Ansatz zur Verbesserung von lokalen Routingverfahren für Quasi-Unit-Disk Graphen. Der Großteil der lokalen geografischen Routingverfahren für Quasi-Unit-Disk Graphen benötigt 2-lokale Nachbarschaftsinformation und verursacht einen Nachrichtenoverhead. Der in dieser Arbeit entwickelte Beaconlose Clustering Algorithmus zeigt, dass sich Nachrichtenoverhead und Energieverbrauch eines bestehenden nicht beaconlosen Verfahrens mittels beaconloser Strategie optimieren lassen. Der Beaconlose Clustering Algorithmus basiert auf einem geografischen Clustering und konstruiert eine lokale Sicht auf einen ausgedünnten Graphen mit einer konstanten Anzahl von Knoten pro Flächeneinheit. Neben der detaillierten Beschreibung des Algorithmus beinhaltet diese Arbeit einen Korrektheitsbeweis und eine Implementierung mit anschließender Simulation zur Untersuchung der Verbesserung des bestehenden Verfahrens.
Potential vermögender Kunden
(2011)
Diese Bachelorarbeit beschäftigt sich mit dem Potential vermögender Kunden im Private-Banking Sektor und den in diesem Bereich angebotenen Finanzdienstleistungen. Hierzu wird unter anderem ein Vergleich des internationalen Potentials mit dem Potential im deutschsprachigen Raum, mit Hilfe von Zeitreihen, durchgeführt.
Der Bezugszeitraum liegt zwischen den Jahren 2000 und 2009. In dieser Zeit kam es, gerade durch die Finanzkrise undrnderen Folgen, zu Kapitalumverteilungen. Die sich aus dieser Analyse ergebenden Veränderungen des Potentials werden daraufhin im Bezug auf die Umgestaltungsmöglichkeiten im Bereich der Finanzdienstleistungen in diesem Sektor angewandt. Hierbei steht das Erreichen eines hohen Servicegrades im Vordergrund, denn dies ist einer der Hauptgründe, warum eine Kunde bei einer Bank bleibt und diese nicht wechselt. Zudem werden neue Möglichkeiten im Banksektor erwähnt und auf die Auswirkungen unterschiedlicher Berater-Entlohnungsmodelle eingegangen.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
Der Zweck dieser Bachelorarbeit ist es Lisa - dem Roboter, der von der Arbeitsgruppe Aktives an der Universität Koblenz-Landau, Campus Koblenz, für die Teilnahme an der @home Liga des Robocups entwickelt wurde - das Zeichnen beizubringen. Dies erfordert die Erweiterung des Robbie Software Frameworks und den Einsatz der Hardware-Komponenten des Roboters. Unter Beachtung eines möglichen Einsatzes für die Open Challenge des RoboCups @home, sind die Ziele ein Blatt Papier mit Lisas optischem Sensor, einer Microsoft Kinect, zu erkennen und auf diesem zu Zeichnen unter Benutzung des Neuronics Katana Roboterarms. Zusätzlich muss eine Stifthalterung für den Gripper des Arms konstruiert werden.
Beschrieben in dieser Arbeit sind die notwendigen Schritte, um eine Zeichenvorlage in Bewegungen des Arms umzuwandeln, welche wiederum dazu führen, dass ein Bild gezeichnet wird durch den am Arm montierten Stift auf dem Blatt Papier, welches vom optischen Sensor durch Bilderkennung entdeckt wurde. Ermöglicht wurde es ein Object, welches aus einer beliebigen Anzahl gerader Linien besteht und aus einer SVG-Datei gelesen wird, auf ein weißes Blatt Papier zu zeichnen, das auf einer dunkleren Oberfläche erkannt wird, umgeben von anderen Gegenständen und Texturen.
Dezentrale digitale Transaktionssysteme mit öffentlicher Transaktionshistorie haben ihrer Architektur nach keine Transaktionsüberwachung, um unerwünschte Transaktionen zu unterbinden und deren Sender und Empfänger zu identifizieren. Mit Einführung einer öffentlichen Liste von Adressen, welche zu solchen unerwünschten Transaktionen gehören, ist es möglich, diese Adressen durch allgemeinen Ausschluss zu isolieren und dadurch die unerwünschten Transaktionen zu unterbinden sowie Besitzer unerwünschter Adressen zu deanonymisieren. Die Verwaltung von öffentlichen Listen kann dabei dezentral von mehreren Instanzen mit Hilfe eines Vertrauensnetzwerks durchgeführt werden, sodass der dezentrale Charakter der Systeme erhalten bleibt.
In dieser Arbeit wird ein erster Prototyp einer mobilen Lernplattform mit Mixed-Reality-Funktionalität (MR) entwickelt. Dieses System soll in den Arbeitsprozess integriertes, selbstbestimmtes Lernen, in Interaktion mit dem Arbeitsgegenstand ermöglichen. Dies entspricht einem situierten, gemäßigt konstruktivistischen Kompetenzbegriff zur beruflichen Weiterbildung, wie ihn Martens-Parree beschreibt. Anhand eines Probandentests in einer Beispieldomäne, der Ausbildung von Piloten auf Segelflugzeugen, wird untersucht, ob Kompetenzvermittlung im Sinne von Handlungskompetenz mit Hilfe des mobilen MR-Lernmediums unterstützt wird und, ob das System bei konkreten Arbeitsaufgaben arbeitserleichternd wirkt. Die Annahmen der erwachsenenpädagogischen Ausgangsthesen konnten grundsätzlich gestützt werden, auch wenn keine direkte Handlungskompetenz, sondern lediglich eine Wissensvermittlung nachgewiesen werden konnte.
Die vorliegende Arbeit hat gezeigt, dass es möglich ist an bestehenden Studien zum Thema Perceived External Reputation und der Teilnahme an der Implementierung von Dienstleitungsinnovationen anzuknüpfen. Es war sogar möglich die Abhängigkeiten der beiden Themen voneinander herauszustellen. Dies gelang unter zu Hilfenahme von weiteren Einflussfaktoren wie der erwarteten Ansehenssteigerung durch innovatives Verhalten und dem Stolz der Mitarbeiter mit dem eigenen Unternehmen in Verbindung gebracht zu werden.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
Diese Bachelor-Thesis beschäftigt sich mit der Entwicklung eines Programms, welches den Zahnarzt durch die AR bei seiner Behandlung am Patienten unterstützen soll. Um eine angemessene theoretische Grundlage zu schaffen, wird zunächst der aktuelle Stand der Technik erläutert, der für dieses Projekt relevant ist. Daraufhin werden mögliche zukünftige Technologien vorgestellt, welche die hypothetische Basis dieser Arbeit darstellen. In dem darauffolgenden Unterkapitel wird die Auswahl der Systeme erläutert, die für dieses Projekt verwendet wurden. Der Hauptteil beschäftigt sich zunächst mit dem Vorgehen in der Vorbereitungs- und Planungsphase, um daraufhin den Programmablauf der Applikation sukzessiv vorzustellen. Dabei wird auch auf die Probleme eingegangen, die während des Programmierens entstanden sind. In dem reflektierenden Auswertungsteil werden Verbesserungsvorschlägen und Zusatzfunktionen für das geschriebene Programm präsentiert.
Diese Arbeit erarbeitet einen Vergleich verschiedener medizinischer Medikamenten-Dispenser. Ein Medikamenten-Dispenser ist eine Vorrichtung, die es erlaubt von einer größeren Menge Medikamente, eine kleinere zu entnehmen. Um den Vergleich durchzuführen wurden 15 Anforderungen an diese Dispenser gefunden. Der Einnahmeerleichterung sind die Anforderungen "Organisation", "Erinnerung" und "Ergonomie" zugeordnet. Zur Compliance, also Therapietreue, gehören "Compliance", "Anpassbarkeit", "Selektivität", "Persistenz", "Funktionalität", "Richtigkeit" und "Spezifität/Sensitivität". Damit stellt diese Kategorie die meisten Anforderungen. Die Kategorie Aufbewahrung sammelt "Hygiene", "Darreichungsformen" und "Robustheit". Schließlich wurden die Anforderungen "Übersichtlichkeit" und "Datenschutz" den sonstigen Anforderungen zugeordnet. Anschließend wurden verschiedene Dispenser-Konzepte zunächst vorgestellt und darauf auf die Erfüllung der Anforderungen hin analysiert. Es wurden folgende Konzepte analysiert: Tablettendose, Wochendispenser, Blister, Schlauchbeutel, MEMS, OtCM, elektronischer Dispenser, App. Nach der Analyse konnten die Dispenser miteinander verglichen werden. Es stellte sich heraus, dass alle Konzepte Mängel aufweisen. Daher entwickelte der Autor ein eigenes Konzept, welches alle Anforderungen bis auf zwei gut bis sehr gut erfüllt. Damit stellt es das mächtigste Konzept dar.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Autorensystems zum modellieren von 3D Szenen mit physikalischer Beschreibung. Ähnlich einem herkömmlichen 3D Modellierungstool soll ein Benutzer Szenen erstellen können mit dem Unterschied, dass bei der Erstellung der Geometrie physikalische Eigenschaften direkt berechnet und eingestellt werden können. Wichtig für solche Systeme ist vor allem ihre Erweiterbarkeit und Anpassungsfähigkeit an die entsprechenden Anforderungen des Benutzers. Der Fokus liegt hierbei auf der Entwicklung einer einfachen Architektur, die leicht erweiterbar und veränderbar ist.
Normen entstehen in jeder Gemeinschaft. Sie sind in der Lage, abseits von Gesetzbüchern und Vertragswerken, für ein rücksichtsvolles Zusammenleben zu sorgen. Dabei haben sie die Fähigkeit zur Anpassung und sind das Durchgangsprodukt eines sich ewig erneuernden Widerstreits zwischen erfahrungsbasierten Erwartungen, die das Handeln bestimmen und Rückmeldungen der Außenwelt, die zu neuen Erfahrungen werden. Gesetzestexte dagegen, die ursprünglich den Versuch darstellten, solche Normen mit der weitesten Verbreitung, festzuhalten und somit das Leben des Einzelnen zu vereinfachen, besitzen durch ihre Statik eine viel geringere Rückkopplung; werden darüber hinaus, sobald der Urzusammenhang mit Normen weitgehend vergessen ist, zum Spielball von Machtinteressen und entfremden sich so vom Normempfinden des Einzelmenschen. Für Normen gilt das "Panta rhei", welches voraussetzt, daß lebendige Einzelwesen ihre Träger sind. Der Versuch die Norm abzutrennen, bspw. durch Niederschrift muss also immer ein Versuch bleiben, der höchstens angenähert zum Erfolg führt. Nicht zuletzt wegen der Unschärfe die dadurch entsteht, daß obwohl wir von einer Norm sprechen, in jedem Einzelnen dem sie bekannt ist, doch wieder eine Abwandlung der generellen Norm existiert und bei ihm, auch nur auf den Zeitpunkt der Erhebung beschränkt, existiert. Somit ist die Simulation von Normentwicklung sicherlich eine schwierige Aufgabe, die allerdings bei Erfolg wichtige Aufschlüsse über das Menschenwesen in der Gesellschaft bringen kann. Wenn das Verständnis über Selbstregulierung dadurch verbessert werden kann, besteht die Hoffnung einen Impuls dafür zu geben, Selbstregulierung auch häufiger den Vortritt vor Regulierung zu lassen. Die Aufgabe, Normentwicklung zu simulieren, stellt sich das EMIL Projekt: "The main technological aim of the project is to construct a simulator for exploring and experimenting norm-innovation. The forecasted impact of the project is to contribute to the regulation of ecommunities by handing out a simulator for the emergence of new norms in complex social systems."1 "While the simulator will be designed as a general-purpose tool, some specific study cases will be selected as so to provide the necessary grounding parameters. Eine agentenbasierte Simulation, die für jeden Agenten über ein komplexes Gedächtnis von bereits gehaltenen Normen verfügt und Lernalgorithmen, die nach Interaktion einen Normenwandel einleiten, sollen das Ziel erreichbar machen. Die vorliegende Arbeit ist eine der ersten Implementationen mit EMIL und soll Impulse für eine Verbesserung der Simulationssoftware geben. Das hier vorgestellte Szenario basiert auf dem Verhalten von Mikrofinanzgruppen.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Die vorliegende Arbeit behandelt die Konzeption einer Smartphone-Applikation für Notfälle. Sie beschreibt die grundlegende Problemstellung und bietet einen konzeptionellen Lösungsansatz.
Den Kerninhalt der Arbeit bildet eine Anforderungsanalyse an eine neu zu konzipierende Notfall-Applikation. Weiterhin werden neben den funktionalen Anforderungen auch nicht-funktionale Anforderungen wie die Benutzerfreundlichkeit betrachtet, um daraus Erkenntnisse für das im Anschluss folgende Soll-Konzept der Applikation abzuleiten. Aufbauend auf einem erstellten Anforderungskatalog wird eine Marktanalyse bestehender Systeme für den Einsatz in Notfällen durchgeführt und auf Stärken und Schwächen hin untersucht. Daneben werden bereits existierende oder im Aufbau befindliche mHealth-Applikationen der Universität Koblenz betrachtet, deren Teilfunktionaltäten aufgrund des vorhandenen Quellcodes mit der späteren Applikation verknüpft werden können. Im Soll-Konzept werden die Erkenntnisse zusammengefasst und mögliche Architekturszenarien für die künftige Notfall-Applikation aufgezeigt. Bei der Bearbeitung des Themas wird deutlich, dass eine Konzeption alleine nicht weit genug greift, die Anforderungen an die zu erstellende Arbeit werden somit erweitert um die Anbindung und Integration der Rettungsleitstellen in das Konzept der Notfall-App.
Am Ende der Ausarbeitungen wird der Leser einen umfassenden Überblick über die Bereitstellung von Notfalldaten an die Leitstellen mittels unterschiedlicher Übertragungskanäle erhalten haben. Weiterhin werden Voraussetzungen für die Anforderungen an das zu konzipierenden System vorgestellt und mögliche Architektur-Szenarien des Notfall-Applikations-Systems aufgezeigt. Der generische und modulare Ansatz garantieren, dass das System offen für zukünftige Entwicklungen und die Anbindung von Teilfunktionalitäten weiterer Applikationen ist.
Diese Arbeit untersucht an einem realistischen Szenario den Ansatz der bildbasierten Integration von Software hinsichtlich seiner Praktizierbarkeit. Als praktische Aufgabe wird die Entwicklung eines Expertensystems für Online- Poker-Plattformen durchgeführt. Die wichtigsten, zu untersuchenden Aspekte sind der Aufwand der Implementierung, die Performance und die Qualität dieses Ansatzes.
Seit Menschengedenken stellen wir uns die Frage, was in der Zukunft schon bald möglich sein könnte. Mit der Bereitstellung von breitbandfähigen Internetanschlüssen für nahezu jeden Haushalt in der Bundesrepublik Deutschland hielten die virtuellen Welten Einzug in unser Leben und ließen uns schon bald wissen, wie realitätsnah etwas "Nicht-Greifbares" sein kann. Die virtuelle Welt und die reale Welt verschmelzen immer mehr miteinander, bieten sie uns doch sogar die Möglichkeit, unseren Lebensunterhalt durch das Abtauchen in ein "zweites Leben" zu bestreiten. Diese Arbeit beschäftigt sich mit den drei derzeit aktuellen virtuellen Welten von "World of Warcraft", "Second Life" und "Habbo Hotel", ihres Zeichens alles PC-Spiele der neueren Art. Ferner soll der Frage nachgegangen werden, inwieweit es in virtuellen Welten eine übergeordnete Instanz gibt, deren Aktivitäten und Funktionen an unseren realen Staat erinnern lassen.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
Die vorliegende Bachelorarbeit untersucht anhand eines Experiments die Auswirkungen dreier Online-Werbeformen (Banner, Streaming Ad und Interstitial) auf die Einstellung, Erinnerung und Kaufabsicht. Sie gibt eine Einführung in die Internetwerbung und die untersuchten Werbeformen sowie einen Überblick über die drei theoretischen Untersuchungsschwerpunkte. Das Experiment wurde während einem Online-Fragebogen durchgeführt. Es nahmen 358 Probanden teil. Die erhobenen Daten wurden mittels Korrelationsmatrizen und der univariaten Varianzanalyse auf Differenzen geprüft.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluierung eines kollaborativen Multiplayer-Games für Kleinkinder für mobile Geräte.
Das Ziel dieser Bachelorarbeit war es, herauszufinden in wie weit sich mobile Geräte wie etwa Tablet-PCs und Smartphones für das Zusammenspiel von Kindern eignen. In diesem Rahmen wurden die für die Entwicklung eines solchen Spiels relevanten Aspekte recherchiert und darauf aufbauend ein Spiel entwickelt, welches anschließend von Kleinkindern getestet wurde.
Die Vorlesung "Datenbanken für Informationsmanager" am Campus Koblenz der Universität Koblenz-Landau behandelte u.a. den Themenkomplex "Funktionale Abhängigkeiten und Normalisierung relationaler Datenbanken". Hierzu wird ein webbasiertes, multimediales Lernprogramm entwickelt, das den Studenten die Möglichkeit bieten soll, praktische Fertigkeiten in der Anwendung der behandelten Algorithmen zu festigen und auszubauen. Die Arbeit beschreibt das entwickelte Lernmodul und beschäftigt sich dabei mit didaktischen Theorien und Konzepten, deren Anwendung im Kontext des webbasierten Trainings und deren Umsetzung im Lernmodul Normalisierung. Darüber hinaus wird die Architektur und die Implementierung der Software erläutert sowie weitere Anwendungs- und Einsatzmöglichkeiten des Programms bzw. seiner Funktionalität beschrieben.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Infinite worlds
(2013)
Diese Arbeit befasst sich mit dem Erstellen eines 2D-Action-Adventures mit Rollenspielelementen. Sie soll einen Überblick über verschiedene Aspekte der Realisierung geben. Zuerst wird die Spielidee und die verwendeten Spielmechanismen beschrieben und daraus eine Anforderungsdefinition erstellt. Nachdem das verwendete Framework kurz erläutert wurde, wird das softwaretechnische Konzept zur Realisierung vorgestellt. Die Umsetzung der Komponenten Steuerung, Spieleditor, Sound und Grafiik wird aufgezeigt. Bei der grafiischen Umsetzung wird ein besonderes Augenmerk auf die Abstraktion von Licht und Schatten in die 2D-Spielewelt gelegt.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Nutzung von Big Data im Marketing : theoretische Grundlagen, Anwendungsfelder und Best-Practices
(2015)
Die zunehmende Digitalisierung des Alltags und die damit verbundene omnipräsente Datengenerierung bieten für Unternehmen und insbesondere Marketingabteilungen die Chance, Informationen in bisher ungekannter Fülle über ihre Kunden und Produkte zu erhalten. Die Gewinnung solcher Informationen aus riesigen Datenmengen, die durch neue Technologien ermöglicht wird, hat sich dabei unter dem Begriff Big Data etabliert.
Die vorliegende Arbeit analysiert diese Entwicklung im Hinblick auf das Potenzial für die unternehmerische Disziplin des Marketings. Dazu werden die theoretischen Grundlagen des Einsatzes von Big Data im Marketing identifiziert und daraus Anwendungsfelder und Best-Practice-Lösungen abgeleitet. Die Untersuchung basiert auf einer Literaturanalyse zu dem Thema Big Data Marketing, welche neben verschiedenen Studien und Befragungen auch Expertenmeinungen und Zukunftsprognosen einschließt. Die Literatur wird dabei zunächst auf die theoretischen Grundlagen des Konstrukts Big Data analysiert.
Anschließend wird die Eignung von Big Data Lösungen für den Einsatz in Unternehmen geprüft, bevor die Anwendung im Bereich des Marketings konkretisiert und analysiert wird. Es wurde dabei festgestellt, dass anhand der theoretischen Aspekte von Big Data eine starke Eignung für den Einsatz im Rahmen des Marketings besteht. Diese zeichnet sich vor allem durch die detaillierten Informationen über Verhaltensmuster von Kunden und ihre Kaufentscheidungen aus. Weiterhin wurden potenzielle Anwendungsfelder identifiziert, welche besonders im Bereich der Kundenorientierung und der Marktforschung liegen. Im Hinblick auf Best-Practice-Lösungen konnte ein grober Leitfaden für die Integration von Big Data in die Unternehmensorganisation entwickelt werden. Abschließend wurde festgehalten, dass das Thema Big Data eine hohe Relevanz für das Marketing aufweist und dies in der Zukunft maßgeblich mitbestimmen wird.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Eine Art der Darstellung von Geschäftsprozessen sind die Modulnetze, eine spezielle Form von Petri-Netzen. Die Software Join ist in der Lage, Prozessdefinitionen textueller Art entgegenzunehmen und sie in ein Modulnetz zu überführen. In dieser Arbeit wird ein Layout-Modul für Join entwickelt, das eine grafische Darstellung der Modulnetze generiert und zur Anzeige aufbereitet. Zunächst werden einige Grundlagen der Graphentheorie erläutert. Sodann werden alle zum Netz gehörenden Elemente durch Zuteilung abstrakter Koordinaten auf einer gedachten Zeichenfläche verteilt. Dazu wurde der Graph in Flüsse, zusammenhängende Knotenfolgen, aufgeteilt und das gesamte Layout an diesen Flüssen ausgerichtet. Aus dem abstrakten Layout wird anschließend eine SVG-Datei generiert. Die Dokumentation der Implementation erfolgt zusammen mit einer Beschreibung der Architektur von Join und des neuen Layout-Moduls. Die Integration des Moduls in Join ist noch nicht vollständig. Später sollen z.B. Modulnetzbeschreibungen automatisch entgegengenommen und bearbeitet werden. Durch Modifikationen werden auch ereignisgesteuerte Prozessketten visualisierbar sein.
Abstract
This bachelor thesis delivers a comprehensive overview of the topic Internet of Things (IoT). With the help of a first literature review, important characteristics, architectures, and properties have been identified. The main aim of this bachelor thesis is to determine whether the use of IoT in the transport of food, considering the compliance with the cold chain, can provide advantages for companies to reduce food waste. For this purpose, a second literature review has been carried out with food transport systems without the use, as well as with the use of IoT. Based on the literature review, it is possible at the end to determine a theoretical ‘ideal’ system for food transport in refrigerated trucks. The respective used technologies are also mentioned. The findings of several authors have shown that often significant improvements can be achieved in surveillance, transport in general, or traceability of food, and ultimately food waste can be reduced. However, benefits can also be gained using new non-IoT-based technologies. Thus, the main knowledge of this bachelor thesis is that a theoretical ‘ideal’ transport system contains a sensible combination of technologies with and without IoT. This system includes the use of a Wireless Sensor Network (WSN) for real-time food monitoring, as well as an alarm function when the temperature exceeds a maximum. Real-time monitoring with GPS coupled with a monitoring center to prevent traffic jams is another task. Smart and energy-efficient packaging, and finally the use of the new supercooling-technology, make the system significantly more efficient in reducing food waste. These highlights, that when choosing a transport system, which is as efficient and profitable as possible for food with refrigerated transport, companies need not just rely on the use of IoT. On this basis, it is advisable to combine the systems and technologies used so far with IoT in order to avoid as much food waste as possible.
Diese Arbeit untersucht die neue Finanzierungsform Crowdfunding. In den letzten Jahren entwickelten sich immer mehr Crowdfunding Plattformen im Internet. Zentrale Frage ist, ob Crowdfunding in absehbarer Zeit eine alternative Finanzierungsmöglichkeit für soziale Organisationen darstellt. In dieser Arbeit wird die Entstehung und Entwicklung von Crowdfunding aufgeführt und die unterschiedlichen Formen des Crowdfundings erläutert. Es wird ein Überblick über deutsche Crowdfunding Plattformen gegeben und Erfolgsfaktoren von Crowdfundingprojekten werden aufgezeigt. In einem Fallbeispiel wird aus den vorher gewonnenen Ergebnissen ein Konzept für die Finanzierung eines sozialen Projekts auf einer Crowdfunding Plattform erstellt.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Im Rahmen dieser Bachelor-Arbeit wurde ein IT-gestützter Prototyp (als Excel-Applikation) entwickelt, mit dem komplexe Entscheidungsfindungen auf Grundlage der Nutzwertanalyse durchgeführt werden können. Er eignet sich zur Bewertung aller Arten von betrieblichen Anwendungssystemen, darüber hinaus ist er auch für andere unternehmerische Entscheidungen verwendbar, da die zugrunde liegende Nutzwertanalyse universell einsetzbar ist. Der Prototyp berücksichtigt und identifiziert 13 Merkmalsgruppen mit insgesamt 100 Merkmalen für Groupware. Ein zusätzlich erstelltes 20-minütiges Tutorial-Video erläutert Schritt für Schritt dessen Nutzung und Funktionalität. Sämtliche Gruppen und Merkmale wurden von einem befragten externen Experten gewichtet. Mit Hilfe des erarbeiteten umfangreichen Kataloges lassen sich künftig Groupware-Produkte effizienter und aussagekräftiger vergleichen. Dieses Tool ist eine Weiterentwicklung im Bereich der Nutzwertanalyse und hilft dabei, intuitiv und inhaltlich-vergleichend Merkmale/Gruppen zu erstellen und eine Nutzwertanalyse durchzuführen. Damit wird ein Benchmark mit vielfältigen Filteroptionen erstellt, der eine tabellarische als auch graphische Auswertung ermöglicht.
Das durchgeführte Experten-Interview und die Auswertung der Fachliteratur haben aber auch deutlich gemacht, dass die Nutzwertanalyse nicht als einziges Argument bzw. Instrument zur Entscheidungsfindung beitragen darf. Zangemeister, Systemtechniker und Fachmann im Bereich der mehrdimensionalen Bewertung und Entscheidungsfindung, merkt hierzu an: "Nutzwertmodelle dürfen nicht als Ersatz, sondern zunächst als eine wichtige Ergänzung der übrigen Modelle betrachtet werden, die dem systematischen Abbau der Entscheidungsproblematik bei der Auswahl von Projektalternativen dienen können" [Zangemeister 1976, S.7]. Alles in allem bietet die Nutzwertanalyse aufgrund der strukturierten Zergliederung des Bewertungsprozesses in Teilaspekte eine qualitativ bessere Übersicht über ein zu bewertendes Problem und stellt eine aussagestarke Zusammenstellung und Auswertung mit detaillierten Informationen über die Bewertungsobjekte auf.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
Diese Bachelorarbeit behandelt die Zusammenführung der bereits vorliegenden Winkelrekonstruktions- und Simulationskomponente und erweitert diese mit Funktionen, um die Durchführung von systematischen Tests zu ermöglichen. Hierzu wird die Übergabe von Bildern aus der Simulationskomponente an die Winkelrekonstruktionskomponente ermöglicht. Des weiteren wird eine GUI zur Testlaufsteuerung und Parameterübergabe sowie eine Datenbankanbindung zur Speicherung der verwendeten Einstellungen und erzeugter Daten angebunden. Durch die Analyse der erzeugten Daten zeigt sich eine ausreichende durchschnittliche Präzision von 0.15° und eine maximale Abweichung der einzelnen Winkel von 0.6°. Der größte Gesamtfehler beläuft sich in den Testläufen auf 0.8°. Der Einfluss von fehlerhaften Parametern hat von variable zu Variable unterschiedliche Auswirkungen. So verstärkt ein Fehler in Höhe den Messfehler um ein vielfaches mehr, als ein Fehler in der Länge der Deichsel.
In dieser Arbeit werden vier der derzeit verfügbaren webbasierten Visualisierungstools evaluiert (FlexViz, Jambalaya applet, Experimental jOWL TouchGraph, Plone ontology).
Im Rahmen dieser Arbeit werden weiterhin folgende Fragen erforscht: 1. Welche Anforderungen an die Visualisierung von Ontologien können definiert werden? 2. Wie kann eine Bewertung und Analyse durchgeführt werden? 3. Wie kann eine ausgewählte Methode getestet werden? Basierend auf den Ergebnissen dieser Fragestellungen stellte sich die Visualisierungsmethode FlexViz im gegebenen Szenario als beste heraus. FlexViz wurde eingesetzt, indem es in das Content Management System Plone integriert wurde. Es wurde mit VCD Ontologien getestet und schließlich aus der Sicht verschiedener Interessengruppen analysiert. Es zeigte sich, dass FlexViz ein gutes Tool zum Visualisieren, Verstehen und Analysieren von bereits entwickelten Ontologien ist, da die Benutzeroberfläche benutzerfreundlich und interaktiv ist. Jedoch zeigt FlexViz deutliche Schwächen bzgl. dem Bearbeiten, Erweitern und Entwickeln von Ontologien.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
The Apple ][ computer was one of the frst three completely assembled systems on the market. It was sold several million times from april 1977 to 1993. This 8 bit home computer was developed by Steve Wozniak and Steve Jobs. They paved the way for the Apple Macintosh computer and the nowadays well known brand Apple with its products.
This thesis describes the implementation of a software emulator for the complete Apple ][ computer system on a single Atmel AVR microcontroller unit (MCU). The greatest challenge consists of the fact that the MCU has only a slightly higher clock speed as the Apple ][. This requires an efcient emulation of the CPU and the memory management, which will be covered later on along with the runtime environment controlling the emulator. Furthermore the hardware implementation into a handheld prototype will be shown.
In summary this thesis presents a successful development of a portable Apple ][ emulator covering all aspects from software design over hardware design ending up in a prototype.
Bei der Mensch-Maschine-Interaktion spielt die Verfolgung und Identifizierung von Personen eine wichtige Rolle. Im Rahmen dieser Arbeit ist für den Serviceroboter Lisa, der Arbeitsgruppe Aktives Sehen, ein Framework erstellt worden, um verschiedene Verfahren zur Erkennung, Verfolgung und Identifizierung von Personen zu kombinieren. Zuerst wird mittels 2D Lasers an eine Beindetektion durchgeführt um Hypothesen für Personen aufzustellen. Diese Annahme muss noch durch eine Analyse der Kinect-Punktewolke bestätigt werden. Nach erfolgreicher Bestätigung wird ein Online-Boosting auf RGB-Daten zur Identifizierung durchgeführt. Die Beindaten werden zudem mit einem linearen Kalman-Filter für die Schätzung der Personenbewegung genutzt. Durch die Kombination von Kalman-Filter mit Beindetektion und Online-Boosting soll Personenverfolgung ermöglicht werden. Des Weiteren soll eine Verwechslung von Personen - durch kurzzeitige Verdeckung oder fehlerhaftes assoziieren von Beinen - verhindert werden.
Zusammenfassung Eine Statistik mit einer anderen zu vergleichen, ist keine einfache Angelegenheit. Besonders dann nicht, wenn die Analysen auf zwei Erhebungen basieren, die nicht dieselben Fragestellungen verfolgen, unterschiedliche Erhebungsmethoden zur Grunde liegen, und vor allem dann nicht, wenn die Stichprobengrößen sehr stark voneinander abweichen. Genau darum wird es in dieser Arbeit gehen: Eine Gegenüberstellung von einer amtlichen und einer nichtamtlichen Statistik, der Mikrozensus und das Sozio-ökonomische Panel (SOEP). Eine Hilfskonstruktion zur Untersuchung vom Fertilitätsverhalten von Frauen in Deutschland wird einmal im Mikrozensus und einmal im SOEP durchgeführt. Dabei soll überprüft werden, wie gut oder weniger gut die Übertragbarkeit eines Untersuchungsmodells vom Mikrozensus auf das SOEP möglich ist. Das SOEP bietet die Möglichkeit die Hilfskonstruktion, d.h. also die Schätzungen, auf ihre Validität zu prüfen. Im SOEP wird das Untersuchungsmodell ein zweites Mal durchlaufen, allerdings wird nicht die geschätzte Anzahl an Müttern genommen, sondern die mit dem SOEP tatsächlich festgestellten Anzahl. Auf diese Weise wird versucht die Qualität der Schätzwerte herauszufinden.
Die Messung des Nutzens von kollaborativen Technologien ist aufgrund der soziologischen Einflüsse auf diese Systeme eine Herausforderung. In dieser Arbeit wird die Einführung eines kollaborativen Systems in eine bestehende IT-Systemlandschaft untersucht, sodass ein Mehrwert für das Unternehmen identifiziert werden kann. Die Auswertung mit Rahmenwerken hat ergeben, dass sich der Nutzen durch eine bessere Verwaltung und Organisation von betrieblichen Ressourcen und eine Optimierung des zugrundeliegenden Prozesses bemerkbar macht.
Diese Arbeit liegt im Themenbereich der benutzerfreundlichen Gestaltung von Applikationen (Apps) auf mobilen Endgeräten, einem Teilgebiet der Software-Ergonomie. Dabei werden zwei Anwendungen im Rahmen einer Nutzungsevaluierung untersucht, mit dem Ziel, herauszufinden, wie eine Hilfestellung auf einem mobilen Endgerät aussehen sollte. Bei der Untersuchung wird insbesondere auf die Frage eingegangen, welche Art von Gesten zur Steuerung der Hilfefunktionen auf einem mobilen Endgerät geeignet ist. Die Studie zeigt, dass die Probanden/-innen sich eine angepasste Hilfestellung wünschen, jedoch eine umfangreiche Hilfebeschreibungen ablehnen, da sie schnell überfordert sind.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.