004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2014 (70) (entfernen)
Dokumenttyp
- Bachelorarbeit (42)
- Masterarbeit (14)
- Dissertation (7)
- Ausgabe (Heft) zu einer Zeitschrift (4)
- Diplomarbeit (2)
- Bericht (1)
Schlagworte
- OpenGL (3)
- Android (2)
- Graphik (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- 3D-Visualisierung (1)
- Anforderungskatalog (1)
- Annotation (1)
- App (1)
Institut
Im Zeitalter des Web 2.0 gewann das Internet als Plattform, um Dienstleistungen anzubieten oder Waren zu verkaufen in Unternehmen immer mehr Aufmerksamkeit. Vor allem zur Kundenbetreuung können Kundenforen ein nützliches Instrument für Unternehmen sein. Durch die Bereitstellung von Kundenforen können Unternehmen drastisch ihre Supportkosten reduzieren. Dennoch ist es oft schwierig für Unternehmen, den Erfolg von Kundenforen zu messen. In der Forschungsliteratur sind die Determinanten für den Erfolg selten untersucht worden. Die vorliegende Bachelorarbeit beabsichtigt diese Forschungslücke durch Anwendung des Modells von Lin und Lee zur Erfolgsmessung in Online-Communities auf Kundenforen zu schließen. Zusätzlich werden Kennzahlen zur Messung des Erfolgs für dieses Modell diskutiert. Die Auseinandersetzung mit dem Thema führt zu dem Ergebnis, dass das Modell von Lin und Lee zum Großteil auf Kundenforen anwendbar ist, in der Theorie wie auch in der Praxis. Das wurde am Beispiel des 1&1 Kundenforum belegt. Die im theoretischen Teil dieser Arbeit gefundenen Kennzahlen waren genauso in der Praxis relevant. Nichtsdestotrotz sollten sich zukünftige Forschungen stärker auf monetäre Kennzahlen konzentrieren, um den Erfolg von Kundenforen auch finanziell bewertbar zu machen.
Die Informationstechnologie hat in den letzten Jahren einen rasanten Anstieg genommen. Durch die Entwicklung des Web 2.0 zum Social Web nehmen immer mehr Menschen und Unternehmen am Informationsaustausch im Web teil. In den Sozialen Netzwerken wie Facebook oder Xing, Blogs von Personen der Öffentlichkeit oder unbekannten Personen oder der Vielzahl an Foren und ähnlichen Plattformen hat jeder die Möglichkeit, am Informationsaustausch selbst mitzuwirken. Dieser Tatsache geschuldet sind nicht nur Unternehmen sondern auch Privatpersonen gezwungen, diese Entwicklung anzunehmen. Durch die Menge an zugänglichen Informationen ist auch die Reputation zwangsläufig betroffen. Durch diese Entwicklung entstand die virtuelle Reputation, die das Gerüst der Gesamtreputation erweitert. Wer sich um einen Auftrag oder eine Stelle bewirbt mussrndamit rechnen, dass sein Name gegoogelt wird, egal ob es sich hierbei um eine internetaffine Branche handelt oder nicht. Durch Suchmaschinen sind Informationen über eine Person leicht zugänglich. Auch ein Blick in ein Profil bei Facebook oder Xing gibt erste Anhaltspunkte. Der Kommunikationsexperte Klaus Eck sagt dazu: "Nur wer das Netz wirklich ernst nimmt, profitiert bei der Entwicklung seines digitalen Rufs". Diese Forschungsarbeit zeigt anhand eines selbstentwickelten Fragebogens, was in Social Networkrnals reputationsfördernd bzw. reputationsschädigend angesehen wird und in wieweit die virtuelle Reputation die Gesamtreputation beeinflusst.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
Neue Techniken zur automatischen Identifikation von Objekten (Auto-ID) zeigen einzigartige Potentiale für deren Einsatz in der Wirtschaft auf. Diese Arbeit fokussiert sich auf die Radio Frequency Identification- (RFID-) Technologie und untersucht deren Nutzen und Potentiale für ausgewählte Wirtschaftsbranchen. Dabei wird sie unmittelbar mit dem zurzeit in der Wirtschaft vorherrschenden System zur Objektidentifikation, dem Barcode, verglichen. Zu diesem Zweck werden die grundlegenden Funktionsweisen beider Technologien vorgestellt und Unterscheidungsmerkmale hinsichtlich der technischen Ausgestaltung der einzelnen Technologien beleuchtet. Darüber hinaus werden im Hinblick auf die potentielle Verwendung von RFID- und Barcodetechnologie innerhalb dreier Wirtschaftsbranchen die unterschiedlichen Funktionsweisen beider Technologien voneinander abgegrenzt und bewertet. Die Abgrenzung bietet die Grundlage, um die Chancen der RFID-Technologie als potentiellem Nachfolger für die Barcode-Technologie in der Konsumgüterbranche, der Logistikbranche und der Pharmabranche zu ermitteln und zu bewerten.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
In der vorliegenden Forschungsarbeit wird ein Leitfaden zur Überprüfung von Geschäfts-modellen entwickelt. Dabei wird insbesondere die Situation junger, innovativer Unter-nehmen (Startups) berücksichtigt. Diese Unternehmen agieren unter einer hohen Unsi-cherheit oder Ungewissheit. Es ist daher kaum möglich über quantitative Daten eine so-lide Prognose für den Erfolg des Unternehmens abzugeben. Die Evaluation von innovativen Geschäftsmodellen stellt eine Forschungslücke dar.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
Ziel dieser Bachelorarbeit war es herauszufinden, mit welchen Hilfsmitteln Entscheidungen unter Unsicherheit getroffen werden und welche Unterschiede es bei Personen mit verschiedenen Eigenschaften gibt. Die Ergebnisse sollten hauptsächlich den Entscheidungsprozess von Managern, Entrepreneuren und Personen mit großer Entscheidungskompetenz widerspiegeln. Zudem sollte gezeigt werden, dass unterschiedliche Persönlichkeitseigenschaften sich auf den Entscheidungsprozess auswirken.
Aufgrund des branchenweiten Bedarfs den Konkurrenzkampf zu umgehen, entwickelten Kim und Mauborgne die Blue Ocean Strategy, um neue Märkte zu ergründen. Diese bezeichnen sie als einzigartig. Da jedoch weitere Strategien zur Ergründung neuer Märkte existieren, ist es das Ziel dieser Arbeit herauszufinden, anhand welcher Charakterisierungsmerkmale die Blue Ocean Strategy als einzigartig angesehen werden kann.
Die Strategie von Kim und Mauborgne soll daher mit Schumpeters schöpferischen Zerstörung, Ansoffs Diversifikationsstrategie, Porters Nischenstrategie und Druckers Innovationsstrategien verglichen werden. Für den Vergleich werden die Charakterisierungsmerkmale herangezogen, nach denen Kim und Mauborgne die Blue Ocean Strategy als einzigartig beurteilen. Auf Basis dieser Kriterien wird ein Metamodell entwickelt, mit dessen Hilfe die Untersuchung durchgeführt wird.
Der Vergleich zeigt, dass die Konzepte von Schumpeter, Ansoff, Porter und Drucker in einigen Kriterien der Blue Ocean Strategy ähneln. Keine der Strategien verhält sich jedoch in allen Punkten so wie das Konzept von Kim und Mauborgne. Während die Blue Ocean Strategy ein Differenzierung und Senkung der Kosten anstrebt, orientieren sich die meisten Konzepte entweder an einer Differenzierung oder an einer Kostenreduktion. Auch die Betretung des neuen Marktes wird unterschiedlich interpretiert. Während die Blue Ocean Strategy auf einen Markt abzielt, der unergründet ist und somit keinen Wettbewerb vorweist, werden bei den anderen Strategien oft bestehende Märkte als neu interpretiert, auf denen das Unternehmen bisher nicht agiert hat. Dies schließt die vorherige Existenz der Märkte jedoch nicht aus.
Auf Basis der durch den Vergleich gezogenen Erkenntnisse, kann somit die Blue Ocean Strategy als einzigartig bezeichnet werden.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.