004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2006 (54) (entfernen)
Dokumenttyp
- Studienarbeit (26)
- Diplomarbeit (21)
- Masterarbeit (4)
- Bachelorarbeit (2)
- Dissertation (1)
Schlagworte
- XML (3)
- GPU (2)
- Logistik (2)
- Netzwerkmanagement (2)
- Stereosehen (2)
- Visualisierung (2)
- Volumendaten (2)
- 3D-Modelle (1)
- Adaptive Abtastung (1)
- Adobe Flash (1)
- Augmented Reality (1)
- Aussagenlogik (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- BGV A1 (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Binäre XML-Formate (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- C-Socketbibliothek (1)
- CAD-System (1)
- CSG (1)
- Cg (1)
- Circumscription (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- Computersimulation (1)
- Corruption (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenaustausch (1)
- Datenaustauschstandard (1)
- Datenstruktur (1)
- Digital Rights Management (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Drahtmodell (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- E-Demokratie (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Eclipse (1)
- Emulation (1)
- Epipolargeometrie (1)
- Fahrerassistenzsystem (1)
- Fehlerverhütung (1)
- Flächenmodell (1)
- Fragmentshader (1)
- Framework (1)
- Funkerkennung (1)
- GDS (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- Geländemodell (1)
- Geschäftsprozessmodellierung (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- HDR-Bild (1)
- High-Traffic (1)
- IT Guru (1)
- Information system (1)
- Information-Retrieval (1)
- Interactive Video Retrieval (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- J2EE (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Knowledge Compilation (1)
- Korruption (1)
- Korrutionsprävention (1)
- Linienkorrelationen (1)
- MTASC (1)
- Maya (1)
- Media Asset Management (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modelltransformation (1)
- Moderierte Diskussionen (1)
- Modulares Softwaresystem (1)
- Multimediale Assets (1)
- Myokard (1)
- Netzwerk (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Nutzungsanalyse (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- OWL (1)
- Oktonärbäume (1)
- Onlinesucht (1)
- Ontologie <Wissensverarbeitung> (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Partizipation (1)
- Phantom Omni (1)
- Potenzialfeld (1)
- Prevention (1)
- Program Slicing (1)
- Propositional Logic (1)
- Prozessmanagement (1)
- Prävention (1)
- Psychohygiene (1)
- Punktkorrelationen (1)
- Query Expansion (1)
- RFID (1)
- Ray casting (1)
- Rechtemanagement (1)
- Relationale Datenbank (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Requirement-Engineering (1)
- Roboter (1)
- Robotik (1)
- Rückfahrkamera (1)
- Schatten (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Supply Chain Management (1)
- Szeneneditor (1)
- TQM (1)
- TRECVID (1)
- Tanzspiel (1)
- Tenneco Automotive (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Total Quality Management (1)
- Trajektorien (1)
- Transport (1)
- Triangulierungsverfahren (1)
- Uniforme Raumunterteilung (1)
- Video (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Vorbeugung (1)
- WSDL (1)
- Web Services (1)
- Webcam (1)
- Wertschöpfungskette (1)
- Wiki (1)
- Wissenskompilation (1)
- XML-Dokument (1)
- YAWL (1)
- Zirkumskription (1)
- data warehouse (1)
- data-mining (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- high-traffic (1)
- image processing (1)
- medizinische Bilddaten (1)
- modellgetriebene Softwareentwicklung (1)
- relativity (1)
- stereo vision (1)
- usage-mining (1)
- visualization (1)
- Öffentliche Verwaltung (1)
Erweiterung der Spielegraphik von Cam2Dance durch den Einsatz von Shadern und komplexen Modellen
(2006)
Die Leistungsfähigkeit moderner Graphikkarten steigt zur Zeit schneller an, als die von CPUs. Dabei kann diese Leistung nicht nur zur Darstellung von 3D Welten, sondern auch für allgemeine Berechnungen (GPGPU) verwendet werden. Diese Diplomarbeit untersucht daher, ob mit Hilfe der GPU Volumendaten schneller gefiltert werden können, als mit der CPU. Dies soll insbesondere am Beispiel von Rausch-Filtern, die auf Videosequenzen angewendet werden, untersucht werden. Dabei soll das Video als Volumen repräsentiert und mit Volumenfiltern gefiltert werden. So soll eine höhere Qualität und eine kürzere Berechnungszeit als mit herkömmlichen CPU und Frame-basierten Verfahren erreicht werden, insbesondere auch bei den z.Z. stark aufkommenden hochauflösenden HDTV-Standards. Das Framework soll jedoch nicht auf Videosequenz-Bearbeitung beschränkt sein, sondern so konzipiert werden, dass es z.B. in bestehende Volumenvisualisierungssysteme integriert werden kann. Das Ziel der Arbeit ist die Einarbeitung in die notwendigen theoretischen Grundlagen, daran anschließend die prototypische Implementierung des Frameworks mit abschließender Bewertung der erreichten Ergebnisse insbesondere der Geschwindigkeit im Vergleich zu existierenden Systemen.
Die Planung in Form eines visuellen Entwurfs ist schon seit jeher Bestandteil des Prozesses der Entwicklung von Artefakten aller Art. Heutzutage wird der visuelle Entwurf zukuenftiger Produkte mithilfe von CAD-Systemen umgesetzt. Im ersten Teil der Arbeit wird daher ein einfaches System implementiert und erlaeutert, das die grundlegenden Funktionen umsetzt, die auch in professionellen CAD-Systemen unerlaesslich sind. Im zweiten Teil werden ueber die Grundfunktionen hinaus ausgewaehlte Algorithmen der parametrischen Modellierung vorgestellt, die die Grundlage fuer die leistungsfaehigen, flexiblen und produktiven Systeme im modernen computer-unterstuetzten Entwurf bilden.
Zielsetzung: Für die Feuerwehr- und Katastrophenschutzschule Rheinland - Pfalz (LFKS) sollen auf der Basis von Flash und XML interaktive Quizzes realisiert werden, die im Rahmen des Gruppenführerlehrgangs als Lernerfolgskontrolle dienen sollen. Als Grundlage wird ein selbstentwickeltes MVC Framework und Adobe (ehemals Macromedia) Flash herangezogen.
Entwicklung: Bei der Entwicklung der Quizzes wurde sehr viel Wert auf eine systemunabhängige, bestmöglich standardisierte Datenhaltung gelegt. Hier war die Verbindung von Flash und XML eine optimale Lösung.
Technik: Mit der Kombination aus ActionScript2, XML und Flash ist es möglich, innerhalb kürzester Zeit unterschiedliche Quizzes zu erstellen. Der Grundgedanke bei dieser Technik ist es, Daten und ihre Repräsentation zu trennen. Die Flash Entwicklungsumgebung wird für die Erstellung der Views (Darstellungselemente) verwendet. Die Views werden anhand von dynamischen Textfeldern, interaktiven Animationen und weiteren Darstellungselementen definiert. Diese Views werden über das MVC-Framework mit Actionscript2 angesprochen und mit Inhalten aus einer externen XML Datei gefüllt. Der Vorteil dabei ist, dass die Inhalte und zum Teil auch das Design recht schnell ausgewechselt werden können, ohne an der Applikation Änderungen vornehmen zu müssen. Die XML Dateien werden mit Hilfe der Software Infopath der Firma Microsoft erstellt. Eine weitere Möglichkeit die Daten zu standardisieren ist das IMS Question and Test Interoperability (IMS QTI) Datenformat, welches explizit für solche Anwendungen entwickelt wurde. Dieses Format wird jedoch nur am Rande behandelt. Diese Flashapplikationen können sowohl als eigenständige Programme betrachtet oder als Elemente einer HTML Datei in einem Browser dargestellt werden. Aus diesem Grund ist es möglich, auf fast jedem Gerät (PC, Notebook, Handheld und Mobiltelefon) und auf jedem Betriebssystem (Windows, Mac OS, Linux, etc.) eine Flashapplikation zum Laufen zu bringen.
Ausblick: Durch das selbstentwickelte MVC-Framework kann die Applikation schnell und einfach erweitert werden. Es wurde jedoch drauf geachtet, dass die Applikation auch ohne den Quellcode neu zu kompilieren vom Aussehen verändert werden kann.
Fehler in der Anforderungsanalyse führen häufig zu Misserfolgen in der Entwicklung von Softwaresystemen. Seit einiger Zeit wird versucht, diesem Problem durch Requirements- Engineering zu begegnen. Durch die frühe Beteiligung aller Stakeholder an der Entwicklung eines Systems sowie eine strukturierte Vorgehensweise zur Ermittlung und Analyse von Anforderungen an ein zu erstellendes System hat es als erster Schritt in der Entwicklung von Softwaresystemen zunehmend an Bedeutung gewonnen. Die steigende Komplexität moderner Softwaresysteme bringt jedoch eine gewaltige Menge an Informationen mit sich, die während der Analyse erfasst und verwaltet werden müssen. Dieser Informationsflut ist ohne Unterstützung durch entsprechende Software kaum beizukommen. Vor allem in größeren, räumlich verteilten Projekten wäre ein effektives Requirements-Engineering sonst kaum möglich. Es gibt inzwischen eine Vielzahl von Tools, die das Requirements-Engineering unterstützen. Diese Tools sind bereits seit geraumer Zeit im Einsatz und setzen in ihren aktuellsten Versionen die wichtigsten Konzepte des Requirements-Engineering um. Im Rahmen dieser Arbeit werden einige dieser Tools im Hinblick auf Funktionsumfang und Verzeichnisstruktur untersucht. Besonderes Interesse galt der Verwaltung von Anforderungen und deren Abhängigkeiten untereinander. Die gewonnenen Erkenntnisse werden anschließend in ein Referenzmodell integriert.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.