004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2006 (54) (entfernen)
Dokumenttyp
- Studienarbeit (26)
- Diplomarbeit (21)
- Masterarbeit (4)
- Bachelorarbeit (2)
- Dissertation (1)
Schlagworte
- XML (3)
- GPU (2)
- Logistik (2)
- Netzwerkmanagement (2)
- Stereosehen (2)
- Visualisierung (2)
- Volumendaten (2)
- 3D-Modelle (1)
- Adaptive Abtastung (1)
- Adobe Flash (1)
- Augmented Reality (1)
- Aussagenlogik (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- BGV A1 (1)
- Besuchersoftware (1)
- Bildverarbeitung (1)
- Binäre XML-Formate (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- C-Socketbibliothek (1)
- CAD-System (1)
- CSG (1)
- Cg (1)
- Circumscription (1)
- Communication System (1)
- Computeranimation (1)
- Computergrafik (1)
- Computergraphik (1)
- Computersimulation (1)
- Corruption (1)
- DCMTK (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- Data-Mining (1)
- Datenaustausch (1)
- Datenaustauschstandard (1)
- Datenstruktur (1)
- Digital Rights Management (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Drahtmodell (1)
- Dreidimensionale Visualisierung (1)
- Dynamische Programmierung (1)
- E-Demokratie (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Eclipse (1)
- Emulation (1)
- Epipolargeometrie (1)
- Fahrerassistenzsystem (1)
- Fehlerverhütung (1)
- Flächenmodell (1)
- Fragmentshader (1)
- Framework (1)
- Funkerkennung (1)
- GDS (1)
- GPGPU-Programmierung (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- Geländemodell (1)
- Geschäftsprozessmodellierung (1)
- Gradientenanalyse (1)
- Graphikprozessor (1)
- HDR-Bild (1)
- High-Traffic (1)
- IT Guru (1)
- Information system (1)
- Information-Retrieval (1)
- Interactive Video Retrieval (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- J2EE (1)
- J2ME (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- Knowledge Compilation (1)
- Korruption (1)
- Korrutionsprävention (1)
- Linienkorrelationen (1)
- MTASC (1)
- Maya (1)
- Media Asset Management (1)
- Mind Maps (1)
- Mobile Kommunikation (1)
- Mobiles Informatinssystem (1)
- Modellbasiertes Tracking (1)
- Modelltransformation (1)
- Moderierte Diskussionen (1)
- Modulares Softwaresystem (1)
- Multimediale Assets (1)
- Myokard (1)
- Netzwerk (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmonitoring (1)
- Netzwerktechnik (1)
- Nicht-photorealistisches Rendering (1)
- Nutzungsanalyse (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- OWL (1)
- Oktonärbäume (1)
- Onlinesucht (1)
- Ontologie <Wissensverarbeitung> (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- Partizipation (1)
- Phantom Omni (1)
- Potenzialfeld (1)
- Prevention (1)
- Program Slicing (1)
- Propositional Logic (1)
- Prozessmanagement (1)
- Prävention (1)
- Psychohygiene (1)
- Punktkorrelationen (1)
- Query Expansion (1)
- RFID (1)
- Ray casting (1)
- Rechtemanagement (1)
- Relationale Datenbank (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Requirement-Engineering (1)
- Roboter (1)
- Robotik (1)
- Rückfahrkamera (1)
- Schatten (1)
- Selbstlokalisation (1)
- Separating-Axis-Theorem (1)
- Shader (1)
- Shaderhochsprache (1)
- Software- Ergonomie (1)
- Stereografie (1)
- Stereoskopie (1)
- Supply Chain Management (1)
- Szeneneditor (1)
- TQM (1)
- TRECVID (1)
- Tanzspiel (1)
- Tenneco Automotive (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Total Quality Management (1)
- Trajektorien (1)
- Transport (1)
- Triangulierungsverfahren (1)
- Uniforme Raumunterteilung (1)
- Video (1)
- Volumen-Rendering (1)
- Volumenmodell (1)
- Vorbeugung (1)
- WSDL (1)
- Web Services (1)
- Webcam (1)
- Wertschöpfungskette (1)
- Wiki (1)
- Wissenskompilation (1)
- XML-Dokument (1)
- YAWL (1)
- Zirkumskription (1)
- data warehouse (1)
- data-mining (1)
- depth map (1)
- disparity map (1)
- dynamic programming (1)
- high-traffic (1)
- image processing (1)
- medizinische Bilddaten (1)
- modellgetriebene Softwareentwicklung (1)
- relativity (1)
- stereo vision (1)
- usage-mining (1)
- visualization (1)
- Öffentliche Verwaltung (1)
Die vorliegende Arbeit bietet ein Konzept für die Implementierung eines Web-Usage-Mining-Systems. Besonderer Schwerpunkt der Arbeit ist die Orientierung an Anwendungsgebieten mit hohem Besuchsaufkommen. Dazu liefert die Arbeit einen Ueberblick ueber ausgewaehlte Messmethoden und Erfassungstechniken für die Nutzungsanalyse von Web-Zugriffen und bietet zu den einzelnen Aspekten Strategien an, die auch bei hohem Datenaufkommen pertinente Speicher- und Abfragekomplexitaet gewaehrleisten.
Partielle Wissenskompilation
(2006)
Viele Probleme in der Aussagenlogik sind nur sehr aufwändig lösbar. Ist beispielsweise eine Wissensbasis gegeben, an die wir Anfragen stellen, wollen, so kann dies mitunter sehr mühsam sein. Um trotzdem effizient Anfragen beantworten zu können, hat sich die Vorgehensweise der Wissenskompilation entwickelt. Dabei wird die Lösung der Aufgabe in eine Offline- und eine Online-Phase aufgeteilt. In der Offline-Phase wird die Wissensbasis präkompiliert. Dabei wird sie in eine bestimmte Form umgewandelt, auf der sich die erwarteten Anfragen effizient beantworten lassen. Diese Transformation der Wissensbasis ist meist sehr aufwändig, muss jedoch nur einmalig durchgeführt werden. In der darauffolgenden Online-Phase können nun effizient Anfragen beantwortet werden. In dieser Diplomarbeit wird eine spezielle Normalform, die sich als Zielsprache der Präkompilation anbietet, untersucht. Außerdem wird die Präkompilation so in einzelne Schritte unterteilt, dass möglicherweise bereits nach einigen Teilschritten Anfragen beantwortet werden können.
Die Visualisierung von Volumendaten ist ein interessantes und aktuelles Forschungsgebiet. Volumendaten bezeichnen einen dreidimensionalen Datensatz, der durch Simulation oder Messungen generiert wird. Mit Hilfe der Visualisierung sollen interessante bzw. in einem gewissen Kontext bedeutsame Informationen aus einem Datensatz extrahiert und grafisch dargestellt werden. Diese Arbeit konzentriert sich auf die Visualisierung von Volumendaten, die in einem medizinischen Kontext erstellt worden sind. Dabei handelt es sich z.B. um Daten, die durch Computertomographie oder Magnet-Resonanz-Tomographie gewonnen wurden. Bei der Darstellung von Volumendaten hat man mehrere Möglichkeiten, welche Art von Beleuchtungsmodellen man einsetzen möchte. Ein Beleuchtungsmodell beschreibt, welche Art von Licht verwendet werden soll und wie dieses mit dem Volumendatensatz interagiert. Die Beleuchtungsmodelle unterscheiden sich in ihrer physikalischen Korrektheit und somit in ihrer Darstellungsqualität. Das einfachste Beleuchtungsmodell zieht keine Lichtquellen in Betracht. Das Volumen verfügt in diesem Fall nur über ein "Eigenleuchten" (Emission). Der Nachteil hierbei ist, dass z.B. keinerlei Schatten vorhanden sind und es somit schwierig ist, räumliche Tiefe zu erkennen. Ein Vorteil des Verfahrens ist, dass die benötigten Berechnungen sehr einfach sind und somit in Echtzeit ausgeführt werden können. Unter einem lokalen Beleuchtungsmodell hingegen versteht man ein Modell, bei dem das Licht berücksichtigt wird, welches direkt von der Lichtquelle auf den Volumendatensatz trifft. Hierbei können z.B. Schatten dargestellt werden, und der Betrachter kann eine räumliche Tiefe in der Darstellung erkennen. Der Berechnungsaufwand steigt, das Verfahren ist aber immer noch echtzeitfähig. Volumendaten haben aber die Eigenschaft, dass sie einen Teil des Lichts, welches durch sie hindurchgeht, in verschiedene Richtungen streuen. Dabei spricht man von indirektem Licht. Um sowohl das direkte als auch das indirekte Licht zu berücksichtigen, muss man eine sogenannte globale Beleuchtungssimulation durchführen. Es ist das am aufwendigsten zu berechnende Beleuchtungsmodell, führt aber zu photorealistischen und physikalisch korrekten Ergebnissen, denn eine globale Beleuchtungssimulation errechnet eine (angenähert) vollständige Lösung des in Abschnitt 4.2 vorgestellten Volumen-Rendering-Integrals (Gleichung (8)).
Prävention von Korruption
(2006)
Zielsetzung: Zunächst erfolgt die Vorstellung der aus der Fachliteratur bekannten Präventionsmaßnahmen gegen Korruption sowie deren kritische Würdigung. Anschließend werden diese zu Präventivdiskursen anderer Phänomene des unternehmerischen Alltags, wie z. B. Sicherheit/Gesundheit, Qualität und Umweltschutz, in Bezug gesetzt, um so mögliche Gemeinsamkeiten und/oder Gegensätze bei der Vorgehensweisen offen zu legen und deutlich zu machen, in wie weit sich diese gegenseitig befördern.
Forschungszusammenhang: Die Arbeit steht im Forschungszusammenhang zur Bekämpfung der Wirtschaftskriminalität, mit dem Schwerpunkt Korruption, in öffentlichen und privaten Unternehmen. Die Fachliteratur weist bereits ein weites Spektrum an Vorschlägen, sowohl präventiver als auch repressiver Natur, zur Bekämpfung von Korruption in Unternehmen auf. Diese werden in ihrer Wirksamkeit zu erfolgreichen Bekämpfung der Korruption aber oft noch kritisch beäugt. Eine Bezugnahme der bekannten Methoden zu Präventionsdiskursen anderer unternehmensinterner Phänomene wurde bisher durch die Fachwelt weitgehend vernachlässigt.
Die vorliegende Diplomarbeit thematisiert die quantitative Analyse und die Visualisierung von Infarktgewebe des linken Herzmuskels. Im Mittelpunkt der Untersuchung steht das Ausmaß der Narbe und deren Deformation ueber den Herzzyklus. Fuer die Narbenausdehnung stehen so genannte Late-Enhancement-Daten zur Verfuegung, die das avitale Gewebe durch ein Kontrastmittel hervorheben. Anhand von automatisierten Verfahren wird die Narbe aus den Bilddaten extrahiert und auf ihre Groesse, Lokalisation und Transmuralitaet quantifiziert. Die Transmuralitaet gibt dabei das lokale Verhaeltnis zwischen der Herzwand- und der Narbenbreite an. Des Weiteren wird die Narbe für die Beurteilung der Beschaffenheit dreidimensional in dem Analysefenster dargestellt. Der Mediziner kann durch das entwickelte Verfahren innerhalb kuerzester Zeit Aussagen ueber das Ausmass und den Ursprung des Herzinfarktes treffen und zudem die Ergebnisse durch verschiedene visuelle Darstellungen kontrollieren. Die Deformation des Narbengewebes über den Herzzyklus und deren Integration mit den dynamischen Cine-Daten wurde bereits in einer vorangegangenen Diplomarbeit umgesetzt. Im Rahmen dieser Arbeit wird eine visuelle Verbesserung der Deformationsergebnisse angestrebt, die das Narbengewebe aus den Volumendaten extrahiert. Das avitale Gewebe wird durch das Eliminieren von uninteressanten Bildinformationen hervorgehoben und verbessert somit die visuelle Analyse der Narbendeformation ueber den Herzzyklus. Beide Verfahren liefern eine detaillierte und eindeutige Analyse des Infarktgewebes, die die manuelle Untersuchung in der klinischen Praxis ergaenzen kann.
Currently more than 850 biological databases exist. The majority of biological knowledge is not in these databases but rather contained as free text in scientific literature. For systems biology tasks it is often necessary to integrate and extract data from heterogeneous databases and free text as well as to analyse the information in the context of experimental data. ONDEX is an integration framework which aims to address these challenges by combining features of database integration, text mining and sequence analysis with methods for graph-based data analysis and visualisation. The main topics of this diploma thesis are the redesign of the ONDEX backend, the development of a data exchange format, the development of a query environment and the allocation of Web services for data integration, data exchange and queries. These Web services allow backend workflow control from both local and remote workstations.
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
Die hohen Infrastrukturkosten machen das Überprüfen von Theorien bezüglich großer Rechnernetze zu einer schwierigen und teuren Aufgabe. Ein möglicher Ansatz dieses Problem zu beheben ist die Verwendung von virtueller anstelle von physikalischer Infrastrukur. OPNets IT Guru ist ein Programm, das entworfen wurde zur Simulation großer Netze und zur Repräsentation relevanter Informationen. Es gestattet großflächige Änderungen zu testen oder Theorien zu überpruefen ohne den Aufwand einer physikalischen Infrastruktur.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.