004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (84) (entfernen)
Schlagworte
- Computersimulation (3)
- Beschaffung (2)
- Datenschutz (2)
- E-Partizipation (2)
- E-participation (2)
- simulation (2)
- 2019 European Parliament Election (1)
- 360 Grad (1)
- 360 degree (1)
- 3D-Visualisierung (1)
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Im Rahmen des "Design Thinking"-Prozesses kommen unterschiedliche Varianten kreativitätsfördernder Techniken zum Einsatz. Aufgrund der zunehmenden Globalisierung ergeben sich immer häufiger Kollaborationen, bei denen sich die jeweiligen Projektteilnehmer an verteilten Standorten befinden. Somit erweist sich die Digitalisierung des Design-Prozesses als durchaus erstrebenswert. Ziel der hier vorliegenden Untersuchung ist daher die Erstellung eines Bewertungsschemas, welches die Eignung digitaler Kreativitätstechniken in Bezug auf das "Entrepreneurial Design Thinking" misst. Des Weiteren soll geprüft werden, inwiefern sich der Einsatz von e-Learning-Systemen in Kombination mit der Verwendung digitaler Kreativitätstechniken eignet. Diese Prüfung soll am Beispiel der e-Learning Software "WebCT" konkretisiert werden. Hieraus ergibt sich die folgende Fragestellung: Welche digitalen Kreativitätstechniken eignen sich für die Anwendung im Bereich des "Entrepreneurial Design Thinkings" unter Einsatz der e-Learning Plattform "WebCT"? Zunächst wird eine Literaturanalyse bezüglich des "Entrepreneurial Design Thinkings", der klassische und digitale Kreativitätstechniken sowie des Arbeitens in Gruppen, was auch das Content Management, e-Learning-Systeme und die Plattform "WebCT" beinhaltet, durchgeführt. Im Anschluss daran wird eine qualitative Untersuchung durchgeführt. Auf Basis bereits bestehender Literatur, soll ein Bewertungsschema erstellt werden, welches misst, welche der behandelten digitalen Kreativitätstechniken für den Einsatz im "Entrepreneurial Design Thinking" am besten geeignet ist. Darauf aufbauend erfolgt die Verknüpfung des digitalisierten "Design Thinking"-Prozesses mit der e-Learning Plattform "WebCT". Abschließend wird diskutiert, in wie fern diese Zusammenführung als sinnvoll erachtet werden kann.
Die Erkennung von Fußgängern in digitalen Bildern ist von großem Interesse in der Entwicklung autonomer Systeme und der Interaktion von Computern mit ihrer Umgebung. Die Herausforderungen an ein solches System sind hoch, da die optische Erscheinung von Fußgängern stark variiert und die Umgebung unstrukturiert ist. In dieser Masterarbeit wird ein Standardverfahren aus der Forschung implementiert und erweitert. Dabei ist eine neue Erkenntnis, dass das Merkmal der Color Self-Similarity durch Vorberechnungen um den Faktor 4 beschleunigt werden kann. Das komplette Erkennungsystem wird in dieser Masterarbeit beschrieben und evaluiert, und der Source-Code unter einer Open Source Lizenz veröffσentlicht.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
Opinion Mining
(2010)
Das Opinion Mining stellt eine Methode dar, mit der Meinungen aus dem WWW gefiltert und intelligent aufbereitet werden können, um Stimmungsanalysen zu einzelnen Produkten und Dienstleistungen zu erstellen. Opionion Mining bietet den Unternehmen somit eine innovative Möglichkeit, ihre Marketingkommmunikation planbarer und wirkungsvoller zu gestalten und ein deutlich erhöhtes Maß an Involvement und Relevanz innerhalb bestimmter Zielgruppen zu erreichen. Zunächst werden die theoretischen Grundlagen des Web 2.0 und relevanter Methoden der Business Intelligence erläutert. Die empirische Untersuchung bildet den Schwerpunkt der Arbeit. Auf die Entwicklung eines Vorgehensmodells folgt die praktische Anwendung dieses Modells auf ein Produkt. Die Ergebnisse werden im Review-Scan im Hinblick auf Forschung und Praxis ausgewertet und diskutiert.
Im Rahmen dieser Masterarbeit wird ein umfassender Überblick über die Vielfalt der Sicherheitsmodelle gegeben, indem ausgewählte Sicherheitsmodelle beschrieben, klassifiziert und miteinander verglichen werden.
Sicherheitsmodelle beschreiben in einer abstrakten Weise die sicherheitsrelevanten
Komponenten und Zusammenhänge eines Systems. Mit den Sicherheitsmodellen können komplexe Sachverhalte veranschaulicht und analysiert werden.
Da Sicherheitsmodelle unterschiedliche Sicherheitsaspekte behandeln, beschäftigt
sich diese Arbeit mit der Ausarbeitung eines Klassifizierungsschemas, welches
die strukturelle und konzeptuelle Besonderheiten der Modelle in Bezug auf die zugrundeliegenden Sicherheitsaspekte beschreibt. Im Rahmen des Klassifizierungsschemas werden die drei grundlegenden Modellklassen gebildet: Zugriffskontrollmodelle, Informationsflussmodelle und Transaktionsmodelle.
Sicherheitsmodelle werden in einem direkten und indirekten Vergleich gegenüber gestellt. Im letzten Fall werden sie einer oder mehrerer Modellklassen des Klassifizierungsschemas zugeordnet. Diese Klassifizierung erlaubt, Aussagen über die betrachteten Sicherheitsaspekte und die strukturellen bzw. konzeptuellen Besonderheiten eines Sicherheitsmodells in Bezug auf die anderen Sicherheitsmodelle
zu machen.
Beim direkten Vergleich werden anhand der ausgewählten Kriterien die Eigenschaften
und Aspekte der Sicherheitsmodelle orthogonal zu den Modellklassen
betrachtet.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
Unstrukturierte Textdokumente enthalten viele Informationen, die heutzutage mit automatisierten Methoden extrahiert werden können. In dieser Arbeit wird ein Framework entwickelt, mit dessen Hilfe ein Evaluationsschema zur Evaluation von Textverarbeitungstools erarbeitet wird. Das Evaluationsschema basiert auf der Modelabhängigen Softwarevaluation und der modelabhängige Teil basiert auf dem Verarbeitungsprozess, der von dem Conceptual Analysis Process abgeleitet ist. Der Conceptual Analysis Process ist im Rahmen des GLODERS Projektes entwickelt wurden. GLODERS ist ein EU-Projekt mit dem Fokus, ein IKT Modell zu entwickeln, welches helfen soll, Extortion Racket Systems besser zu verstehen. Im Rahmes des GLODERS Projektes wurden Gerichtsdokumente eines Falles in Deutschland zu Verfügungrngestellt, die in dieser Arbeit die Datengrundlage stellen. Zum Schutz involvierter Personen sind die Daten anonymisiert. Mit dem entwickelten Schema werden dann sechs verschiedene Softwarelösungen in Bezug auf die automatisierte Verarbeitungrnvon unstrukturierten Textdokumenten evaluiert.
In der Forschung der autonomen mobilen Roboter ist besonders die Pfadplanung immer noch ein sehr aktuelles Thema.
Diese Masterabeit befasst sich mit verschiedenen Pfadplanungsalgorithmen zur Navigation solcher mobilen Systeme. Hierbei ist nicht nur eine kollisionsfreie Trajektorie von einem Punkt zu einem anderen zu ermitteln, sondern sollte diese auch noch möglichst optimal sein und alle Fahrzeug-gegebenen Einschränkungen einhalten. Besonders die autonome Fahrt in unbekannter dynamischer Umgebung stellt eine große Herausforderung dar, da hier eine geschlossene Regelung notwendig ist und dem Planer somit eine gewisse Dynamik abverlangt wird.
In dieser Arbeit werden zwei Arten von Algorithmen vorgestellt. Zum einen die Pfadplaner, welche auf dem A* aufbauen, der im eigentlichen Sinne ein Graphsuchalgorithmus ist: A*, Anytime Repairing A*, Lifelong Planning A*, D* Lite, Field D*, hybrid A*. Zum anderen die Algorithmen, welche auf dem probabilistischen Planungsalgorithmus Rapidly-exploring Random Tree basieren (RRT, RRT*, Lifelong Planning RRT*), sowie einige Erweiterungen und Heuristiken. Außerdem werden Methoden zur Kollisionsvermeidung und Pfadglättung vorgestellt. Abschließend findet eine Evaluation der verschiedenen Algorithmen statt.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.