004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2014 (70) (entfernen)
Dokumenttyp
- Bachelorarbeit (42)
- Masterarbeit (14)
- Dissertation (7)
- Ausgabe (Heft) zu einer Zeitschrift (4)
- Diplomarbeit (2)
- Bericht (1)
Schlagworte
- OpenGL (3)
- Android (2)
- Graphik (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- 3D-Visualisierung (1)
- Anforderungskatalog (1)
- Annotation (1)
- App (1)
Institut
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
Das Ausgangsproblem, das zu dieser Arbeit motiviert, ist die fehlende Darstellungsmöglichkeit von Abschluss- und Forschungsarbeiten der Forschungsgruppe BAS. Viele Arbeiten liegen nur in gedruckter Version vor. Vereinzelt werden auch Webseiten von Studenten erstellt. Diese sind aber nicht einheitlich.
In einem ersten Schritt wird ein passendes Forschungsvorgehen für das zu lösende Problem erstellt. Dabei wird sich die Arbeit an den konstruktionsorientierten Ansatz des Design Science Research nach Hevner [2007] richten. Diese Arbeit löst das Problem durch das Erstellen einer Web 2.0 Internetpräsenz. Dazu wird das freie Content Management System Drupal benutzt. Für die Umsetzung des Zielsystems wird ein Anforderungskatalog erstellt. Dieser wird mit Hilfe verschiedener Methoden erarbeitet. Hierzu zählen Mock Ups, Interviews, Kollaborationsszenarien und Personas. Um die erhobenen Anforderungen zu erfüllen, werden eine Reihe von Zusatzmodulen der Kernversion von Drupal hinzugefügt. Hat das System einen fortgeschrittenen Status erreicht, wird dieses durch Szenarien und Benutzter getestet. Ein Ergebnis dieser Arbeit ist zum einen ein einsatzbereiter Prototyp, mit dem es möglich ist, mehrere Abschluss- und Forschungsarbeiten webfähig und einheitlich darzustellen. Ein weiteres Ergebnis sind Guides, die das Bedienen des Prototypen beschreiben. Den Abschluss der Arbeit bildet ein Fazit und ein Ausblick auf die weitere Nutzung des Prototypen.
Objekterkennung ist ein gut erforschtes Gebiet bei bildbasiertem Rechnersehenrnund eine Vielzahl an Methoden wurden entwickelt. In letzter Zeit haben sich dabei Ansätze verbreitet, die auf dem Implicit Shape Model-Konzept basieren. Dabei werden Objekte zunächst in grundlegende visuelle Bestandteile aufgetrennt, die um örtliche Informationen erweitert werden. Das so generierte Objektmodell wird dann in der Objekterkennung genutzt, um unbekannte Objekte zu erkennen. Seit dem Aufkommen von erschwinglichen Tiefenkameras wie der Microsoft Kinect wurde jedoch die Objekterkennung mittels 3D-Punktwolken von zunehmender Bedeutung. Im Rahmen des Robotersehens in Innenräumen wird ein Verfahren entwickelt, welches auf vorhandenen Ansätze aufbaut und damit die Implicit Shape Model basierte Objekterkennung für die Verarbeitung von 3D-Punktwolken erweitert.
Diese Arbeit stellt den Faltungshall vor, ein Verfahren, das es ermöglicht, in neutral klingenden Räumen aufgenommenes Audiomaterial mit realistisch klingendem Nachhall zu versehen. Dabei wird vor allem auf die Möglichkeit eingegangen, den Effekt auf einer GPU mit Hilfe von OpenCL zu berechnen, um die hohe Parallelisierbarkeit des Problems zu seiner Lösung zu nutzen. Ziel ist es, ein VST-Plugin entwickeln zu können, das den GPU-beschleunigten Faltungsalgorithmus in verschiedener Audiosoftware nutzbar macht.
Beaconlose geografische Routingverfahren für Unit-Disk Graphen basieren auf einer beaconlosen Strategie und bieten einen Ansatz zur Verbesserung von lokalen Routingverfahren für Quasi-Unit-Disk Graphen. Der Großteil der lokalen geografischen Routingverfahren für Quasi-Unit-Disk Graphen benötigt 2-lokale Nachbarschaftsinformation und verursacht einen Nachrichtenoverhead. Der in dieser Arbeit entwickelte Beaconlose Clustering Algorithmus zeigt, dass sich Nachrichtenoverhead und Energieverbrauch eines bestehenden nicht beaconlosen Verfahrens mittels beaconloser Strategie optimieren lassen. Der Beaconlose Clustering Algorithmus basiert auf einem geografischen Clustering und konstruiert eine lokale Sicht auf einen ausgedünnten Graphen mit einer konstanten Anzahl von Knoten pro Flächeneinheit. Neben der detaillierten Beschreibung des Algorithmus beinhaltet diese Arbeit einen Korrektheitsbeweis und eine Implementierung mit anschließender Simulation zur Untersuchung der Verbesserung des bestehenden Verfahrens.
Die vorliegende Arbeit hat gezeigt, dass es möglich ist an bestehenden Studien zum Thema Perceived External Reputation und der Teilnahme an der Implementierung von Dienstleitungsinnovationen anzuknüpfen. Es war sogar möglich die Abhängigkeiten der beiden Themen voneinander herauszustellen. Dies gelang unter zu Hilfenahme von weiteren Einflussfaktoren wie der erwarteten Ansehenssteigerung durch innovatives Verhalten und dem Stolz der Mitarbeiter mit dem eigenen Unternehmen in Verbindung gebracht zu werden.
Dezentrale digitale Transaktionssysteme mit öffentlicher Transaktionshistorie haben ihrer Architektur nach keine Transaktionsüberwachung, um unerwünschte Transaktionen zu unterbinden und deren Sender und Empfänger zu identifizieren. Mit Einführung einer öffentlichen Liste von Adressen, welche zu solchen unerwünschten Transaktionen gehören, ist es möglich, diese Adressen durch allgemeinen Ausschluss zu isolieren und dadurch die unerwünschten Transaktionen zu unterbinden sowie Besitzer unerwünschter Adressen zu deanonymisieren. Die Verwaltung von öffentlichen Listen kann dabei dezentral von mehreren Instanzen mit Hilfe eines Vertrauensnetzwerks durchgeführt werden, sodass der dezentrale Charakter der Systeme erhalten bleibt.
Die hier vorliegende Arbeit stellt eine Anwendung zur Simulation von Objekten vor, die zwischen den Aggregatzuständen fest und flüssig wechseln können. Dazu wird ein Temperatursystem verwendet. Dabei liegen die Schwerpunkte auf der Simulation von Fluiden, basierend auf einem Partikelsystem, der Generierung einer Oberfläche aus diesem und der Darstellung von Metall. Zusätzlich soll die Anwendung interaktiv sein und muss die Kriterien der Echtzeitfähigkeit erfüllen. Dazu werden verschiedene Shadertypen eingesetzt, um die Berechnungen auf der GPU zu parallelisieren. Weiterhin werden weitere Einsatzmöglichkeiten, sowie mögliche Verbesserungen der Anwendung aufgezeigt.
In der vorliegenden Arbeit wird die Integration einer Business Intelligence-Lösung in eine bestehende Social Software beschrieben. Dafür wird zunächst der Begriff Business Intelligence und Social Software, der Aufbau sowie deren Bestandteile näher erläutert. Danach erfolgt eine Analyse der IST-Situation der Zielgruppe durch Interviews, deren Auswertungen in der SOLL-Konzeptionierung in eine Anforderungsliste transformiert werden. Abschließend werden die herausgearbeiteten Anforderungen an der finalen Installation geprüft und getestet, um festzustellen ob die Erwartungen der Zielgruppe und ihre Vorstellungen von Business Intelligence realisierbar sind.
Das Ergebnis dieser Arbeit soll eine installierte Business Intelligence-Lösung in einer Social Software sein. Diese soll einen Überblick darüber geben, was mit der aktuellsten Version der Software bereits möglich ist und kritisch aufzeigen, wo es Stärken und Schwächen gibt, die bei zukünftigen Versionenrnbedacht werden sollten.
Diese Arbeit versucht zu klären, ob der richtige Zeitpunkt für eine innovative Veränderung eines Geschäftsmodells ermittelt werden kann. Wenn ja, gilt es herauszufinden, wann dieser Zeitpunkt eintritt.
In einer kurzen Einführung sind die Problemstellung und die Ziele dieses Themas zusammengefasst und die Vorgehensweise der Literaturrecherche, sowie deren Bearbeitung beschrieben.
Es folgen die drei Hauptkapitel, welche inhaltlich aufeinander aufbauen. In dem Kapitel zwei sind Geschäftsmodelle thematisiert. Hier sind zunächst aus verschiedenen Quellen Definitionen des Begriffs "Business Model" herausgearbeitet, damit ein allgemeines Verständnis der Bedeutung eines Geschäftsmodells gewährleistet ist. Diese Definitionen sind durch das von Chesbrough und Rosenbloom (2002) praktische Beispiel der Nutzung eines Geschäftsmodells des Unternehmens Xerox Corporation gestützt. Im nächsten Schritt gilt es Typen von Business Models zu identifizieren. Als Quelle dient hierfür Weill et al (2005).
Der letzte Abschnitt von Kapitel zwei beschäftigt sich mit den sechs Dimensionen eines Geschäftsmodells nach Bieger und Reinhold (2011). Diese sechs Dimensionen spielen zum Ende dieser Arbeit eine Rolle als Kriterien für die Analyse heutiger Literatur zum Timing von Geschäftsmodellen.
Kapitel drei ist gleichzeitig Teil zwei der drei Hauptkapitel. Hier liegt der Fokus auf Innovationen. Der Begriff Innovation ist zunächst definiert und seine Wichtigkeit dargestellt, bevor verschiedene Arten von Innovationen beschrieben werden. Die einzelnen Innovationsarten leiten sich aus den Differenzierungskriterien nach Vahs und Brem (2013) ab. Um auch an dieser Stelle die Realität aus Unternehmenssicht näherzubringen, sind Fragestellungen aufgeführt, welche ein Geschäftsführer sich stellen sollte, wenn er sein Geschäftsmodell verändern möchte oder muss. Literaturgrundlage dieser Fragestellungen ist ein Artikel von Zott und Amit aus dem Jahr 2010.
Nach der umfassenden Klärung des Begriffs Innovation und kurzer Hilfestellung für Geschäftsführer folgt eine Beschreibung zweier Methoden, um Geschäftsmodelle innovativ zu verändern. Die erste Methode ist die Nutzung des St. Galler Business Model Navigators nach Gassmann, Frankenberger und Csik (2013). Der St. Galler Business Model Navigator wurde an der Universität St. Gallen in der Schweiz von dem Institut für Technologiemanagement entwickelt.
Die zweite beschriebene Methode für Business Model Innovation ist das Business Model Canvas Tool nach Osterwalder und Pigneur (2010), welches auf die sogenannten "nine building blocks" aufbaut.
Das letzte Hauptkapitel dieser Arbeit bezieht sich auf dessen zentrale Fragestellung mit dem Stichwort Timing. Hier wird mit einem praktischen Beispiel von Timing von technologischen Innovationen begonnen, der IBM Mainframe Case, analysiert von Mahajan und Muller (1996). Danach folgt eine kurze Zusammenfassung des Standes in der heutigen Literatur zum Thema Timing. Im nächsten Schritt ist ein eigener Beitrag zum Thema "Business Model Innovation Timing" geschrieben, weswegen sich Literaturangaben in diesem Abschnitt auf dem Minimum halten.
Diese Bachelorarbeit schließt ab mit der eigenen Analyse von heutiger Literatur zum Timing von Geschäftsmodellen. Ergebnis dieser Analyse ist eine Tabelle mit einer 20 x 7 Matrix, wo der Inhalt zwanzig ausgewählter Quellen den sechs Dimensionen eines Geschäftsmodells aus Kapitel zwei, sowie dem Kriterium Timing zugeordnet ist. So entsteht ein Überblick darüber, über welche Kriterien in der Literatur mehr oder weniger geschrieben wurde. Diese Analyse und Zuordnung ist ausgewertet, indem die Quellen mit dem Kriterium Timing genauer betrachtet werden, um die zentrale Fragestellung dieser Arbeit zu beantworten zu versuchen.
Ein kurzes Fazit rundet die Bachelorarbeit ab.