004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2014 (59) (entfernen)
Dokumenttyp
- Bachelorarbeit (40)
- Masterarbeit (13)
- Diplomarbeit (2)
- Dissertation (2)
- Ausgabe (Heft) zu einer Zeitschrift (1)
- Bericht (1)
Sprache
- Deutsch (59) (entfernen)
Schlagworte
- OpenGL (3)
- Android (2)
- Graphik (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- 3D-Visualisierung (1)
- Anforderungskatalog (1)
- App (1)
- Applikation (1)
In diesem Bericht wird der Einsatz von drahtlosen Sensornetzen zur Temperaturmessung in Fließgewässern untersucht. Es wird dargestellt, inwieweit solche Netze als Bindeglied zwischen Fernerkundung und stationären Sensoren eingesetzt werden können. Es werden die Anforderungen an Sensornetze für die Anwendung Gewässermonitoring ermittelt und eine prototypische Realisierung von Netzknoten für ein solches Sensornetz dargestellt. Als Ergebnis dieser Arbeit werden die Genauigkeit von Temperaturmessungen mit solchen Sensorknoten im Vergleich zu einem Temperaturlogger als Referenzsystem dargestellt. Die Messungen zeigen, dass eine vergleichsweise gute Messgenauigkeit zu geringen Kosten erreichbar ist. Durch Weiterentwicklung des hier dargestellten Prototypen steht für die Temperaturüberwachung in Gewässern ein vielversprechendes und kostengünstiges neues Messinstrument zur Verfügung. Dieses kann auf der einen Seite in tieferen Regionen Gewässertemperaturen messen, als dies mit Fernerkundung möglich ist, und auf der anderen Seite eine höhere räumliche Auflösung als stationäre Messstationen erreichen. Zusätzlich dienen die Literaturrecherche und die Formulierung der Kriterien einer Eingrenzung des Anwendungsbereichs für weiterführende Arbeiten.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
Aufgrund des branchenweiten Bedarfs den Konkurrenzkampf zu umgehen, entwickelten Kim und Mauborgne die Blue Ocean Strategy, um neue Märkte zu ergründen. Diese bezeichnen sie als einzigartig. Da jedoch weitere Strategien zur Ergründung neuer Märkte existieren, ist es das Ziel dieser Arbeit herauszufinden, anhand welcher Charakterisierungsmerkmale die Blue Ocean Strategy als einzigartig angesehen werden kann.
Die Strategie von Kim und Mauborgne soll daher mit Schumpeters schöpferischen Zerstörung, Ansoffs Diversifikationsstrategie, Porters Nischenstrategie und Druckers Innovationsstrategien verglichen werden. Für den Vergleich werden die Charakterisierungsmerkmale herangezogen, nach denen Kim und Mauborgne die Blue Ocean Strategy als einzigartig beurteilen. Auf Basis dieser Kriterien wird ein Metamodell entwickelt, mit dessen Hilfe die Untersuchung durchgeführt wird.
Der Vergleich zeigt, dass die Konzepte von Schumpeter, Ansoff, Porter und Drucker in einigen Kriterien der Blue Ocean Strategy ähneln. Keine der Strategien verhält sich jedoch in allen Punkten so wie das Konzept von Kim und Mauborgne. Während die Blue Ocean Strategy ein Differenzierung und Senkung der Kosten anstrebt, orientieren sich die meisten Konzepte entweder an einer Differenzierung oder an einer Kostenreduktion. Auch die Betretung des neuen Marktes wird unterschiedlich interpretiert. Während die Blue Ocean Strategy auf einen Markt abzielt, der unergründet ist und somit keinen Wettbewerb vorweist, werden bei den anderen Strategien oft bestehende Märkte als neu interpretiert, auf denen das Unternehmen bisher nicht agiert hat. Dies schließt die vorherige Existenz der Märkte jedoch nicht aus.
Auf Basis der durch den Vergleich gezogenen Erkenntnisse, kann somit die Blue Ocean Strategy als einzigartig bezeichnet werden.
Remote Rendering ist eine Möglichkeit aufwändige Grafik von leistungsstarker Hardware für leistungsschwächere Endgeräte bereitzustellen. Durch den Transfer der Daten über ein Netzwerk entsteht eine Verzögerung, welche die Interaktivität einschränkt. Ein Verfahren, um Befehle an eine virtuelle Kamera auf dem Endgerät direkt umzusetzen, wird 3D-Warping genannt. Das Verfahren erzeugt jedoch Bildartefakte. In dieser Arbeit werden verschiedene Ansätze für Remote Rendering Setups aufgezeigt. Zusätzlich werden die auftretenden Artefakte des Warpings und Methoden zur Verbesserung des Verfahrens beschrieben. Es werden eigene Implementationen und Verbesserungen vorgestellt und untersucht.
3D-Modelle werden heute in vielen Bereichen wie Multimedia Anwendungen, Robotik oder der Filmindustrie immer wichtiger. Besonders interessant ist dabei die Erstellung eines 3D-Modells aus einer monokularen Bilderserie, da die hierfür nötigen Kameras immer günstiger, kleiner und ausgereifter produziert werden. Geeignetere Kameras werden in immer mehr Geräten wie Smartphones, Tablet-PCs, Autos etc. verbaut, wodurch sich ein großes Potential für die Verwendung dieser Rekonstruktionstechnik ergibt.
Als Grundlage dieser Arbeit dient eine mit einer kalibrierten Kamera aufgenommene Bilderserie. Aus dieser werden 2D-Punktkorrespondenzen, mit den verbreiteten SURF-Features oder den A-KAZE-Features gewonnen. Aufbauend auf den 2D-Punktkorrespondenzen kann aus diesen mit Hilfe verschiedener Algorithmen ein 3D-Modell in Form einer Punktwolke und Kameraposen rekonstruiert werden.
Um Fehler in dem entstandenen Modell gering zu halten, wird insbesondere aufrnden Bündelausgleich zur Fehlerminimierung eingegangen. Anschließend wird dasrnneben dieser Arbeit entstandene Programm zur 3D-Rekonstuktion und Visualisierung des 3D-Modells erläutert. Das implementierte System wird anschließend anhand von Statistiken evaluiert und die hieraus gewonnenen Erkentnisse präsentiert.
Abschließend werden die Ergebnisse dieser Arbeit zusammengefasst und einrnAusblick auf mögliche Weiterentwicklungen gegeben.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.