004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (203)
- Mehrsprachig (3)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
- Java (7)
- Software Engineering (7)
- Visualisierung (7)
- Simulation (6)
- Android (5)
- Datenschutz (5)
- Evaluation (5)
- GPGPU (5)
- Interaktion (5)
- Mustererkennung (5)
- Netzwerk (5)
- Objektverfolgung (5)
- Petri-Netze (5)
- Programmierung (5)
- Shader (5)
- Volumen-Rendering (5)
- Volumendaten (5)
- ontology (5)
- Bluetooth (4)
- Business Intelligence (4)
- Computergrafik (4)
- E-KRHyper (4)
- E-Learning (4)
- E-Partizipation (4)
- Enterprise 2.0 (4)
- GPU (4)
- Graphik (4)
- Information Retrieval (4)
- Knowledge Compilation (4)
- Logistik (4)
- OWL (4)
- OWL <Informatik> (4)
- Ontologie <Wissensverarbeitung> (4)
- Ontology (4)
- RIP-MTI (4)
- Rechnernetz (4)
- Router (4)
- SPARQL (4)
- Smartphone (4)
- Software (4)
- Supply Chain Management (4)
- Tracking (4)
- UML (4)
- VNUML (4)
- VOXEL (4)
- Wiki (4)
- XML (4)
- computer clusters (4)
- API (3)
- Analyse durch Synthese (3)
- Android <Systemplattform> (3)
- Augenbewegung (3)
- BPMN (3)
- C++ (3)
- Compute Shader (3)
- Computeranimation (3)
- Computervisualistik (3)
- Datenanalyse (3)
- Datenaustausch (3)
- Echtzeitsystem (3)
- Echtzeitsysteme (3)
- Fahrzeug (3)
- GPS (3)
- Globale Beleuchtung (3)
- Grafikkarte (3)
- Instant Messaging (3)
- Internet (3)
- Kamera (3)
- Markerloses Tracking (3)
- Mikrocontroller (3)
- Mikrocontroller AVR (3)
- Modellbasiertes Tracking (3)
- Netzwerksimulation (3)
- Ontologie (3)
- OpenGL Shading Language (3)
- Prozessmanagement (3)
- Ray tracing (3)
- Raytracing (3)
- Rechnernetze (3)
- Rettungsroboter (3)
- Segmentierung (3)
- Spiel (3)
- Stereosehen (3)
- TGraph (3)
- Transferfunktion (3)
- University (3)
- Wikipedia (3)
- World of Warcraft (3)
- XTPeer (3)
- classification (3)
- interaktiv (3)
- model-based (3)
- parallel algorithms (3)
- 3D (2)
- Abduktion <Logik> (2)
- Akkreditierung (2)
- Akzeptanz (2)
- Annotation (2)
- App (2)
- Applikation (2)
- Automatische Klassifikation (2)
- Automatisches Beweisverfahren (2)
- Autonome Fahrzeuge (2)
- Autonomes Robotersystem (2)
- Beschaffung (2)
- Bild (2)
- Bildregistrierung (2)
- Browser (2)
- CSCW (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer (2)
- Computer Graphics (2)
- Computer Supported Cooperative Work (2)
- Computertomografie (2)
- Content Management (2)
- Crowdsourcing (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- DTI (2)
- Data Mining (2)
- Datensicherheit (2)
- Delta (2)
- Digital Rights Management (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- Dokumentation (2)
- E-IMS (2)
- E-Mail (2)
- E-participation (2)
- Eclipse <Programmierumgebung> (2)
- Electronic Government (2)
- Enhanced Reality (2)
- Entwicklung (2)
- Equality (2)
- Erweiterte Realität (2)
- Eyetracking (2)
- Fahrerassistenzsystem (2)
- Fallstudie (2)
- Formale Ontologie (2)
- Framework (2)
- Frau (2)
- GLSL (2)
- Gaze Tracker (2)
- Geschäftsprozess (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Grafikprozessor (2)
- Graphikprozessor (2)
- High dynamic Range (2)
- IBM Lotus Quickr (2)
- IPv6 (2)
- Information Flow Ontology (2)
- Informationsmanagement (2)
- Informationssystem (2)
- Informationsvisualisierung (2)
- Innovationsmanagement (2)
- Internetzugang (2)
- Interoperabilität (2)
- JGraLab (2)
- Kalibrierung (2)
- Klassifikation (2)
- Kollaboration (2)
- Konvergenz (2)
- Kryptographie (2)
- Künstliche Intelligenz (2)
- Laser (2)
- Laserscanner (2)
- Line Space (2)
- Linked Open Data (2)
- Maschinelles Lernen (2)
- Medizinische Visualisierung (2)
- Metriken (2)
- Modell (2)
- Modellfahrzeug (2)
- Modellgetriebene Entwicklung (2)
- Modellierung (2)
- Modelltransformation (2)
- Navigation (2)
- Network (2)
- Netzwerkmanagement (2)
- Neuronales Netz (2)
- Online-Befragung (2)
- Open Source (2)
- Partikelsystem (2)
- Personalausweis (2)
- Petri Nets (2)
- Petri-Netz (2)
- Program Slicing (2)
- Propagation (2)
- Prädikatenlogik (2)
- Qualität (2)
- RDF (2)
- RDF <Informatik> (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Reengineering (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Roboter (2)
- Rollenspiel (2)
- Routing Information Protocol (2)
- Schatten (2)
- Schlussfolgern (2)
- Security (2)
- Selbstlokalisation (2)
- Semantic Desktop (2)
- Semantik (2)
- Serviceorientierte Architektur (2)
- Sicherheit (2)
- Softwareentwicklung (2)
- Softwaretest (2)
- Spielkonsole (2)
- SpoGA (2)
- Starrkörper (2)
- Steuerung (2)
- Tablet PC (2)
- Textur-Mapping (2)
- Theorem Proving (2)
- Transform Feedback (2)
- Transformation (2)
- Umfrage (2)
- Universität Koblenz-Landau (2)
- Usability (2)
- Usage Rights Management (2)
- Virtualisierung (2)
- Virtuelle Realität (2)
- Virtuelle Welt (2)
- Volumen (2)
- Volumenrendering (2)
- WLAN (2)
- Wasseroberfläche (2)
- Web 2.0 (2)
- Web Analytics (2)
- Web Services (2)
- WebGL (2)
- Webcam (2)
- Werbung (2)
- Wii (2)
- Wiimote (2)
- Wissensmanagement (2)
- World Wide Web 2.0 (2)
- Zielverfolgung (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- computer science (2)
- constraint logic programming (2)
- eGovernment (2)
- game (2)
- governance (2)
- hybrid automata (2)
- image processing (2)
- information system (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- probability propagation nets (2)
- security (2)
- semantics (2)
- simulation (2)
- social media (2)
- social simulation (2)
- visualization (2)
- 101companies (1)
- 2-D (1)
- 2019 European Parliament Election (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-Modelle (1)
- 3D-RETISEG (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- 8C model (1)
- ABox (1)
- AMIRE (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- ARIS (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- AUTOSAR (1)
- Abfragesprache (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Ad-Hoc Routing (1)
- Adaptation (1)
- Adaptive Abtastung (1)
- Adaptive Services Grid (ASG) (1)
- Administration (1)
- Adobe Flash (1)
- Adobe Flex (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Agent (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Algolib (1)
- Algorithm Engineering (1)
- Algorithmus (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Analyse (1)
- Analyse-durch-Synthese (1)
- Analysis of social platform (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Anhängerfahrzeug (1)
- Animationsverfahren (1)
- Annotationsmodell (1)
- Anpassung (1)
- Anwendungsintegration (1)
- Anwendungssoftware (1)
- Anzeige (1)
- App <Programm> (1)
- ArcGIS (1)
- Architektur <Informatik> (1)
- Architekturbewertung (1)
- Archivierung (1)
- Articles for Deletion (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Association Rules (1)
- Audiodatei (1)
- Auditing (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Auslese (1)
- Ausrichtungswerkzeug (1)
- Aussagenlogik (1)
- Ausstellung (1)
- Austausch (1)
- Auswahl (1)
- Auszeichnungssprache (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automotive Systems (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomes Fahrzeug (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Avatar (1)
- Avatare (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- B2B Integration (1)
- BGV A1 (1)
- BI (1)
- BPM (1)
- BPMS (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Backtrack (1)
- Balanced Scorecard (1)
- Balancetheorie (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Benutzerverhalten (1)
- Beschleunigungsensor (1)
- Beschreibungslogik (1)
- Besuchersoftware (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsegmentierung (1)
- Bildsensor (1)
- Bildverstehen (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biometric Authentication (1)
- Biometrie (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blinder Fleck (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Bordinstrument (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Burg (1)
- Business Collaboration (1)
- Business Continuity Management (1)
- Business Process Modeling (1)
- Business Software (1)
- Business intelligence (1)
- Bürgerbeiteiligung (1)
- C-Programmierung (1)
- C-Socketbibliothek (1)
- CAD (1)
- CAD-System (1)
- CB2 (1)
- CIDR (1)
- CMS (1)
- CSCA (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Cascada (1)
- Casual Game (1)
- Casual Games (1)
- Cg (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Cheops (1)
- Chiffrierung (1)
- Cicero (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Classification (1)
- Closed Source (1)
- Clusteranalyse (1)
- Clustering (1)
- CodeBlue (1)
- Cold Chain (1)
- CollaborativeWriting (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Coloskopie (1)
- Common Annotation Framework (1)
- Communication Networks (1)
- Communication System (1)
- Computational biology (1)
- Computational logic (1)
- Compute-Shader (1)
- Computer Networks (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersicherheit (1)
- Computerspiele (1)
- Computertomographie (1)
- Conference (1)
- Congestion Control (1)
- Constitutive Model (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Context-aware processes (1)
- Controlling (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Corruption (1)
- CosiMail (1)
- Counting-to-Infinity (1)
- Creativity (1)
- Criteria Matrix (1)
- DCMTK (1)
- DEMO_net (1)
- DHCPv6 (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- DPLL procedure (1)
- Darmpolyp (1)
- Darmspiegelung (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data analysis (1)
- Data compression (1)
- Data flow analysis (1)
- Data manipulation (1)
- Data protection (1)
- Data-Mining (1)
- Data-Warehouse-Konzept (1)
- Datenaustauschstandard (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenkompression (1)
- Datenschutzpolicy (1)
- Datenstruktur (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Demoskopie (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Design Thinking (1)
- Designwerkzeug (1)
- Desktop (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diagramm (1)
- Diffie-Hellman-Algorithmus (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digital Storytelling (1)
- Digitale Bibliothek (1)
- Digitale Bilder (1)
- Digitale Steuerung (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Disaster Recovery (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Displacement Mapping (1)
- Display (1)
- Distanz-Vektor (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Distribution <Linguistik> (1)
- Drahtloses Sensorsystem (1)
- Drahtloses lokales Netz (1)
- Drahtmodell (1)
- Dreidimensionale Bildverarbeitung (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- Dynamische Programmierung (1)
- E-Business (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-Government (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEG (1)
- EEPROM (1)
- EMIL-S (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU (1)
- EU-Dienstleistungsrichtlinie (1)
- Echtzeit Anwendung (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Echtzeitphysik (1)
- Eclipse (1)
- Ecore (1)
- Einchip-Computer (1)
- Einkauf (1)
- Einstellung (1)
- Electronic Commerce (1)
- Elektrischer Servomotor (1)
- Elektroencephalographie (1)
- Elektronische Bibliothek (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Empirische Sozialforschung (1)
- Emulation (1)
- Enhanced Representation (1)
- Enterprise Architect (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Information Management (1)
- Enterprise Resource Planning (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entropia Universe (1)
- Entscheidungsprozess (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Entwurfssprache (1)
- Epipolargeometrie (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- Erstgebärende (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Binnenmarkt (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Event (1)
- Experiment (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extension (1)
- Eye Tracking (1)
- Eye-Tracking (1)
- FPIC (1)
- Fabric Simulation (1)
- Facebook App (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fahrerassistenzsysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fahrverhalten (1)
- Fahrzeugverhalten (1)
- Faktorenanalyse (1)
- Farbbildverarbeitung (1)
- Farbenlehre (1)
- Farbkalibrierung (1)
- Farbsymmetrie (1)
- Farbtheorie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fedora (1)
- Fehlerbaum (1)
- Fehlerverhütung (1)
- Fernsehtechnik (1)
- Fertilitaet (1)
- Feuer (1)
- Fiber Tracking (1)
- Field programmable gate array (1)
- Finanzberatung (1)
- Fingerprint Recognition (1)
- Fire (1)
- Firewall (1)
- First aid (1)
- FlexViz (1)
- Fließgewässer (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Foils <Programm> (1)
- Food Transportation System (1)
- Foodstuff (1)
- Forensik (1)
- Formal Methods (1)
- Formale Methoden (1)
- Forschungslandkarte (1)
- Fotoauswahl (1)
- Fourier (1)
- Fracturing (1)
- Fragebeantwortung (1)
- Fragmentshader (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Freiheitsgrad (1)
- Fresnel (1)
- Function Words (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- Funktionelle NMR-Tomographie (1)
- Föderiertes System (1)
- GDPR (1)
- GDS (1)
- GIRT (1)
- GMI-Controlling (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- GReQL2 (1)
- GReTL (1)
- GSM-Standard (1)
- GUPRO (1)
- Game Design (1)
- Gaps (1)
- Gaze-Tracking (1)
- GazeTheWeb (1)
- Geburt (1)
- Geburtshaus (1)
- Gebäudemodelle (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Geländemodell (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Geodaten (1)
- Geoinformation (1)
- Geometrie-Shader (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Gerichteter Graph (1)
- Germany (1)
- Gerstner (1)
- Geschäftsmodell (1)
- Geschäftsmodellinnovation (1)
- Geschäftsprozessmodell (1)
- Geschäftsprozessmodellierung (1)
- Gespann (1)
- Geste (1)
- Gesteninterpretation (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gradientenanalyse (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph (1)
- Graph Technology (1)
- GraphUML (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grounded Theory (1)
- Grundschule (1)
- Gruppenarbeit (1)
- Gupro (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HNF-Algorithmus (1)
- HTML 5.0 (1)
- Halbschatten (1)
- Hand-based Gestures (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Haskell (1)
- Hausgeburt (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Healthcare institution (1)
- Hebamme (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Herzerkrankungen (1)
- Heuristiken (1)
- High-Traffic (1)
- Hindernis (1)
- Historisierung (1)
- Hochgeschwindigkeitstracking (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hyperspace-Modell (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IK-Algorithmus (1)
- IM-Systeme (1)
- IP 6 (1)
- IP-Adressen (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Image Processing (1)
- Image Understanding (1)
- Imitation Learning (1)
- InFO (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Inflation (1)
- Infobroker (1)
- Information (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Supply Chain (1)
- Information Visualization (1)
- Information system (1)
- Information-Retrieval (1)
- Informationsmanagementsystem (1)
- Informationsverlinkung (1)
- Informetrie (1)
- Innovation (1)
- Inpainting-Verfahren (1)
- Integration (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Interactive Visualizations (1)
- Interaktionselemente (1)
- Interaktive Visualisierungen (1)
- Interaktives Fernsehen (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- Internet Voting (1)
- Internet of Things (1)
- Internetregulierung (1)
- Internetworking (1)
- Interoperability (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraph (1)
- JML (1)
- Jabber (1)
- Jabber <Programm> (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java-Quelltext (1)
- Java. Programmiersprache (1)
- JavaScript (1)
- Join (1)
- Jump'n Run-Spiel (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- KRHyper (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kamerakalibrierung (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kinect (1)
- Kinematik (1)
- Kirk-Coleman-Modell (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Kletterer (1)
- Knowledge (1)
- Knowledge Graph (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kohärenzanalyse (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Konturfindung (1)
- Konzept (1)
- Kookkurrenz (1)
- Kooperatives Informationssystem (1)
- Korruption (1)
- Korrutionsprävention (1)
- Kraftfahrzeug (1)
- Krankenhausinformationssystem (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Kundenmanagement (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Lastenheft (1)
- Latent Negative (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lebensmittelallergie (1)
- Lehrer (1)
- Leichte Sprache (1)
- Leistungsmessung (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernen (1)
- Lernsoftware (1)
- Lernspiel (1)
- Lernumgebung (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linespace (1)
- Linienkorrelationen (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Linking of Information (1)
- Linux (1)
- Literaturrecherche (1)
- Logging (1)
- Logik (1)
- Logischer Schluss (1)
- Lokale Bildmerkmale (1)
- Lokalisation (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- MIA (1)
- MMORPG (1)
- MP3 Player (1)
- MPEG-7 (1)
- MTASC (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Mann-Whitney (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Matching (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Maya (1)
- MeVisLab (1)
- Media Asset Management (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Mehrprozessorsystem (1)
- Mensch-Maschine-Interaktion (1)
- Mensch-Maschine-Schnittstelle (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsbewertung (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Metamodel (1)
- Metric based Icp (1)
- Micro Finance (1)
- Migration (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mikrozensus (1)
- Mind Maps (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Information Systems (1)
- Mobile Kommunikation (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- MobileFacets System (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modellieren (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Moderierte Diskussionen (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Modulnetze (1)
- Monitoring (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimediale Assets (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- Multivariate Datenanalyse (1)
- Musteranalyse (1)
- Myokard (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NPO (1)
- NURBS (1)
- Nagios (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Network Virtualization (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerk Protokollen (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Netzwerküberwachung (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nonprofit-Organisation (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- Nvidia CUDA (1)
- OCL <Programmiersprache> (1)
- OCR (1)
- ODRL (1)
- ODRLv2 (1)
- OGRE (1)
- ONDEX (1)
- OPNET (1)
- OSS (1)
- OVTK (1)
- OWL-DL (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Object Recognition (1)
- Objective-C (1)
- Objektentfernung (1)
- Objekterkennung (1)
- Octree Textur (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinesucht (1)
- Onlinewahl (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- Open Digital Rights Language (1)
- Open Source 3D Graphics Engine (1)
- Open Source Software (1)
- OpenCL (1)
- OpenVDB (1)
- OpenWrt (1)
- Opinion mining (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Optisches Mikroskop (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- PDA (1)
- PEPPOL (1)
- PHP (1)
- POIs (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Pan European Public Procurement OnLine (1)
- Par (1)
- Parallelmanipulator (1)
- Partikel (1)
- Partikelsimulation (1)
- Partizipation (1)
- Path Tracing (1)
- Path transformation (1)
- Pattern Recognition (1)
- Perinatalbogen (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Petri net (1)
- Petri-Netz-Theorie (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadtransformation (1)
- Pfadverfolgung (1)
- Pflichtenheft (1)
- Phantom Omni (1)
- Photographie (1)
- Physik (1)
- Physikengine (1)
- Physiksimulation (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Plug in (1)
- Plugin (1)
- Point Rendering (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Pollenanalyse (1)
- Polypendetektion (1)
- Pose (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Potenzialfeld (1)
- Power Law (1)
- Pre-Integration (1)
- Preisbildung (1)
- Prevention (1)
- Primus (1)
- Privacy (1)
- Privatvermögen (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programm (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propositional Logic (1)
- Protocol (1)
- Prototyp (1)
- Prototype (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Präsentation (1)
- Prävention (1)
- Psychohygiene (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Punktkorrelationen (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Quality assessment system (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- Query Expansion (1)
- RCP (1)
- RDF Graphs (1)
- RDF modeling (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- RIPng (1)
- RMIS (1)
- Radiales System (1)
- Radiosity (1)
- Random Finite Sets (1)
- Rangtest (1)
- Ray Tracer (1)
- Ray casting (1)
- Ray-Casting (1)
- ReDSeeDS-Project (1)
- ReMiP (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Rechtemanagement (1)
- Recommender System (1)
- Reddit (1)
- Referenzmetamodell (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Regionenlabeling (1)
- Register (1)
- Registratur (1)
- Regler (1)
- Regression (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Relationales Datenbanksystem (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Repast (1)
- Requirement-Engineering (1)
- Requirements-Engineering (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Restrukturierung (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Reverse Engineering (1)
- Rich Internet Application (1)
- Risikomanagement-Informationssysteme (1)
- Risk (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robbie (1)
- Robert P. Abelson (1)
- RoboCup (1)
- RoboCup Rescue (1)
- Robocup 2008 (1)
- Robotersystem (1)
- Route Aggregation (1)
- Route Planning (1)
- Routen-Aggregation (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing information protocol (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Routing- und Forwarding Tabellen (1)
- Routing-Loop (1)
- RuneScape (1)
- Rückfahrkamera (1)
- Rückverfolgbarkeit (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SNMP (1)
- SOA (1)
- SOA-Webservice (1)
- SOAMIG (1)
- SOMA (1)
- STOF Model (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- SVG (1)
- Sales Ageny (1)
- Sand (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Scanmatching (1)
- Schema Information (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schnelle Faltung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Search engine (1)
- Second Life (1)
- Security Routing (1)
- Segmentation (1)
- Semantic Data (1)
- Semantics (1)
- Semantisches Wiki (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Serviceroboter (1)
- Sesame (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Shattering (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheit Routing (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Simulationswerkzeug (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Smartphone Applikation (1)
- SocSimNet (1)
- Social Games (1)
- Social Networking Platforms (1)
- Social Software (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software- Ergonomie (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwaremodellierung (1)
- Softwarespezifikation (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziale Netzwerke (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Sozialwissenschaftliche Simulation (1)
- Soziooekonomisches Panel (1)
- Spam-Mail (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spektrale Bildgewinnung (1)
- Spezifikation (1)
- Spieleentwicklung (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- Staat (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Statische Analyse (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Statistische Analyse (1)
- Staukontrollmechanismen (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Stewart-Plattform (1)
- Stilisierung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Stomp (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Suchmaschine (1)
- Supernetting (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Systembiologie (1)
- Szeneneditor (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- TGraphen (1)
- TQM (1)
- TRECVID (1)
- TRIZ (1)
- Tableau <Logik> (1)
- Tableau Calculus (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tarrain Klassifikation (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Taxonomie (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Technologischer Raum (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Temporale Datenhaltung (1)
- Tenneco Automotive (1)
- Tesseract (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Textur (1)
- Texturierung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tokens (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Tool Evaluation (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tourismus (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Trackingsystem (1)
- Trajektorien (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transfer function (1)
- Transferfunction (1)
- Translation (1)
- Transport (1)
- Transportschicht (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- Type System (1)
- Type system (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- USARSim (1)
- USB (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Unified Modeling Language (UML ) (1)
- Uniforme Raumunterteilung (1)
- United Internet AG (1)
- Universitäre Lehrveranstaltung (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Unternehmensnetzwerke (1)
- Unterricht (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- User Interface (1)
- VCD (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VIACOBI (1)
- VLAN (1)
- VST (1)
- VTP (1)
- Validierung (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verbraucherforschung (1)
- Verifikation (1)
- Verortung (1)
- Verteilte Systeme (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Verwaltungsautomation (1)
- Video (1)
- Video-Installation (1)
- Videospiel (1)
- Videospiele (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Company Dossier (1)
- Virtual Networks (1)
- Virtual Square (1)
- Virtual characters (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtuelle Menschen (1)
- Virtuelle Welten (1)
- Virtuelle Ökonomien (1)
- Virtueller Raum (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Odometrie (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volume Raycasting (1)
- Volume Rendering (1)
- Volumenmodell (1)
- Volumenvisualisierung (1)
- Vorbeugung (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- W-LAN (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Water Surface Temperature (1)
- Wavelet (1)
- Web (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Weblog (1)
- Webseiten (1)
- Webserver (1)
- Webservice Sail (1)
- Website (1)
- Wechselkursänderung (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Wellen (1)
- Werbeform (1)
- Wertschöpfungskette (1)
- Whiteboard (1)
- WiFi Fingerprinting (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wilcoxon-Rangsummentest (1)
- Wireless Sensor Networks (1)
- Wireshark (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissenskompilation (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Word-of-Mouth (1)
- Workflow (1)
- World Wide Web (1)
- Wrapping (1)
- X-Cosim (1)
- XML-Dokument (1)
- XMPP (1)
- XSD (1)
- XTpeer (1)
- Xcode (1)
- YAWL (1)
- You-messages (1)
- Zerbrechen (1)
- Zertifikat (1)
- Zirkumskription (1)
- Zufriedenheit (1)
- Zukunftsszenario (1)
- accelerometer (1)
- acceptance (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- advertisements (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- android (1)
- application programming interfaces (1)
- archiving (1)
- area light (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- attitude (1)
- augmented reality (1)
- automated theorem prover (1)
- automatisierte Videoüberwachung (1)
- bachelor (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- categorisation (1)
- co-occurrence (1)
- collaboration (1)
- collaborative technologies (1)
- color image processing (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- convergence analysis (1)
- core ontologies (1)
- crowd evacuation (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- data-mining (1)
- deductive (1)
- depth map (1)
- description logic (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- diagram (1)
- diffusion (1)
- digital library (1)
- directed acyclic graphs (1)
- disparity map (1)
- distinct object identifiers (1)
- distributed information systems (1)
- dreidimensionale Computergraphik (1)
- dynamic programming (1)
- e-Commerce (1)
- e-ID (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- ediv (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- engine (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation (1)
- event (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- experiment (1)
- eye tracking (1)
- faceted search (1)
- factor analysis (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- general purpose (1)
- geometry shader (1)
- grUML (1)
- gradient method of training weight coefficients (1)
- graphics card (1)
- grassland (1)
- groupwork (1)
- high-traffic (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- iSearch (1)
- id card (1)
- image semantics (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- information retrieval (1)
- interaction (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jOWL (1)
- java (1)
- jump'n run game (1)
- keystroke biometric recognition (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- landmarks (1)
- legacy software (1)
- line space (1)
- lineare Algebra (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mann-whitney (1)
- markerless tracking (1)
- master (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- methodology (1)
- metrics (1)
- micro-agent (1)
- midwife (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model (1)
- model generation (1)
- model-driven engineering (1)
- modellgetriebene Softwareentwicklung (1)
- modulares System (1)
- module handbook (1)
- morphological operators (1)
- movement (1)
- multiagent systems (1)
- multidimensional (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- multiprocessing (1)
- myAnnotations (1)
- nPA (1)
- natural language generation (1)
- natural language processing (1)
- natürliche Sprache (1)
- networks (1)
- neural (1)
- nichtamtliche Haushaltsbefragungen (1)
- octree texture (1)
- official household surveys (1)
- online survey (1)
- out-of-hospital birth (1)
- parallel calculations (1)
- parallel computing (1)
- path planning (1)
- perinatal (1)
- person (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- physical interaction (1)
- physics (1)
- physische Interaktion (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- pregnancy (1)
- privacy (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- projektives Malen (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- quality assurance (1)
- question answering (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- real-time computing (1)
- realtime physics (1)
- recurrent (1)
- reference meta model (1)
- reflection (1)
- refraction (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- relativity (1)
- requirements analysis (1)
- retina fundus images (1)
- revenue management (1)
- rich multimedia presentations (1)
- rigid body (1)
- rip (1)
- risk (1)
- rmti (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- search engine (1)
- security requirements (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sensor control (1)
- sequent calculi (1)
- shader (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- soft shadow (1)
- software engineering (1)
- stereo vision (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- survey in Koblenz (1)
- syntaktische Analyse (1)
- tag recommendation (1)
- tagging (1)
- taxonomy (1)
- texturing (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transform feedback (1)
- transformation (1)
- travel document (1)
- unique name assumption (1)
- unofficial household surveys (1)
- usability study (1)
- usage-mining (1)
- vegetation modeling (1)
- verification (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtual human (1)
- virtual network user mode linux (1)
- virtuelle Netze (1)
- vnuml (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
- xtpeer (1)
- Öffentliche Verwaltung (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
Der Einsatz von Computern hat in den vergangenen Jahrzehnten die Arbeitsweise von Sozialwissenschaftlern nachhaltig verändert. Es ist wohl nicht übertrieben zu behaupten, daß die Verbreitung und zunehmende Bedienungsfreundlichkeit von Rechenanlagen und statistischen Auswertungsprogrammen der empirischen Sozialforschung als vorherrschender Forschungsstrategie erst zum Durchbruch verholfen haben. Mit der steigenden Bedeutung von Computern im sozialwissenschaftlichen Forschungsprozeß ist auch eine neue Wissenschaftsdisziplin entstanden, die sich schwerpunktmaßig mit der Adaption und Anwendung von Werkzeugen und Methoden der Informatik in der sozialwissenschaftlichen Forschung beschäftigt: die Sozialwissenschaftliche Informatik. Das vorliegende Skript ist aus einer Reihe von Vorlesungen hervorgegangen, die wir für Studierende dieses Anwendungsfaches im Studiengang Diplom-Informatik an der Universität Koblenz-Landau gehalten haben. Im Gegensatz zu vielen anderen Einführungen in die uni- und multivariate Datenanalyse richtet sich die vorliegende Darstellung der statistischen Verfahren in erster Linie an fortgeschrittene Anwender der "klassischen" statistischen Methoden, die sich einen Überblick über die mathematischen Grundlagen der angewandten Methoden verschaffen und bei der Interpretation ihrer Analyseergebnisse die Fallstricke rezeptbuchartiger Einführungen vermeiden möchten. Dieses elektronische Dokument ist die geringfügig überarbeitete Fassung des 1994 erschienenen Buches, welches seit langem vergriffen ist.
Mittels SPARQL können Anfragen in Form von RDF Tripeln auf RDF Dokumente gestellt werden. OWL-DL Ontologien sind eine Teilmenge von RDF und können über spezifische OWL-DL Ausdrücke erstellt werden. Solche Ontologien über RDF Tripel anzufragen kann je nach Anfrage kompliziert werden und eine vermeidbare Fehlerquelle darstellen.
Die SPARQL-DL Abstract Syntax (SPARQLAS) löst dieses Problem indem Anfragen mittels OWL Functional-Style Syntax oder einer der Manchester Syntax ähnlichen Syntax gestellt werden. SPARQLAS ist eine echte Teilmenge von SPARQL und verwendet nur die nötigsten Konstrukte, um mit möglichst wenig Schreibaufwand schnell die gewünschten Ergebnisse zu Anfragen auf OWL-DL Ontologien zu erhalten.
Durch die Verringerung des Umfangs einer Anfrage und der Verwendung einer dem Nutzer bekannten Syntax lassen sich komplexe und verschachtelte Anfragen auf OWL-DL Ontologien einfacher realisieren. Zur Erstellung der spezifischen SPARQLAS Syntax wird das Eclipse Plugin EMFText verwendet. Die Implementation von SPARQLAS beinhaltet zudem noch eine ATL Transformation zu SPARQL. Diese Transformation erspart die Entwicklung eines Programms zur direkten SPARQLAS Verarbeitung und erleichtert so die Integration von SPARQLAS in bereits laufende Entwicklungsumgebungen.
In Zeiten, in denen ein Notebook so selbstverständlich wie ein Taschenrechner ist und als Arbeitsgerät, oder zur Kommunikation bzw. Recherche im Internet genutzt wird, ist es für Gäste von enormem Vorteil, schnell und unkompliziert einen Zugriff auf die vorhandene Netzinfrastruktur einer gastgebenden Firma zu erlangen. Dies erspart einerseits Arbeitsaufwand von Seiten der Administratoren, bzw. wenn es sich um eine kleinere Firma handelt, die nicht über eine eigene IT-Abteilung verfügt, ermöglicht es, ohne die Dienste von Dritten in Anspruch zu nehmen, einen zeitlich begrenzten Zugang für Gäste. Andererseits lassen sich Kosten für die sonst nötigen Arbeitsschritte einsparen, und die Administratoren können sich ihren eigentlichen Aufgaben widmen. Und das Ganze unabhängig von Arbeits- und Urlaubszeiten, frei von lästigen Formalitäten und ohne Vorlaufzeit, um nur einige der Vorteile gegenüber einer manuellen Freischaltung zu nennen. Ein weiterer wichtiger Punkt ist, dabei die Sicherheit der IT-Netzinfrastruktur nicht zu beeinträchtigen. Ein spontaner Zugang sollte zeitlich begrenzt (z.B. für die Dauer einer Veranstaltung) und personenbezogen sein. Genau diese Funktionalität ermöglicht das in diesem Projekt entwickelte SpoGA-System.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
Die folgende Arbeit soll einen Überblick über bestehende Lösungen zur Interaktion in Erweiterten Realitäten (Augmented Reality) schaffen. Hierzu werden anhand dreier grundlegender Betrachtungsweisen unterschiedliche Interaktionskonzepte und -umsetzungen sowohl von der technischen, als auch von der konzeptuellen Seite her, vorgestellt. Neben Fragen der Visualisierung werden unterschiedliche Typen von Benutzungsschnittstellen vorstellt. Den größten Teil nehmen die drei typischen Interaktionsaufgaben Selektion- und Manipulation, Navigation und Systemkontrolle und die damit verbundenen Interaktionstechniken ein. Die Inhalte des Arbeitsberichts beschränken sich auf den Einsatz von Interaktionelementen in Augmented Reality Umgebungen. Dies geschieht in Abgrenzung zu Forschungsarbeiten auf dem Gebiet zu Interaktionstechniken in Virtual Reality Umgebungen (vollimmersiv oder auch desktoporientiert). Zwar standen und stehen viele Interaktionstechniken aus dem Bereich VR in der AR Pate, doch haben sich gerade im Bereich der AR neue Techniken und Konzepte entwickelt. Folglich sollen VR Techniken nur dann betrachtet werden, wenn Sie in AR Anwendungen angewendet wurden bzw. wenn ihre Anwendung sinnvoll erscheint.
Ein Netzwerk, wie beispielsweise das Internet, ist eine Menge von Netzen, die durch Router miteinander verbunden sind. Ein Router ist ein Computer, der mit mehreren Netzwerkschnittstellen ausgerüstet und an mehrere Netze angeschlossen ist, um zwischen diesen Pakete zu vermitteln. Man kann ein Netzwerk auch als Graph repräsentieren, wobei Router als Knoten und Netze als Kanten angesehen werden können. Diesen Graph nennt man die Topologie des Netzwerks. Soll ein Paket in ein anderes Netz als das eigene gesendet werden, so wird es normalerweise dem sogenannten Default-Router gesendet. Dieser besitzt (wie jeder Router) eine Tabelle (die sogenannte Forwardingtabelle), die alle Netze enthält. Zusätzlich ist in der Tabelle der jeweilige Router eingetragen, über den das Netz am besten erreicht werden kann. So wird das Paket von einem Router zum nächsten geleitet, bis es das Zielnetz erreicht. Dabei schlägt jeder Router in seiner Tabelle nach, welches der nächste Router auf dem günstigsten Weg zum Zielnetz ist. Ein Routingprotokoll kümmert sich um den automatischen Austausch von Informationen zwischen den Routern, um die Forwardingtabelle aufzubauen und auf dem aktuellen Stand zu halten. Sind die Tabellen aller Router auf dem aktuellen Stand, so befindet sich das Netzwerk in einem konvergenten Zustand. Die Zeit, die benötigt wird, um die Forwardingtabelle aufzubauen beziehungsweise sie nach einer Änderung der Topologie zu aktualisieren, wird Konvergenzzeit genannt. Das Routingprotokoll RIP ist ein bekanntes und gut erforschtes Distanzvektor-Protokoll. Jedoch gibt es bisher nur wenige Untersuchungen der Konvergenzeigenschaften (wie z.B. benötigte Zeit, um in einen konvergenten Zustand zu gelangen, oder das dabei erzeugte Trafficvolumen) dieses Protokolls. Ziel der Arbeit ist es einen Zusammenhang zwischen den Topologieeigenschaften eines Netzwerks und den Konvergenzeigenschaften bei Verwendung des RIP-Routingprotokills experimentell zu ermitteln. Hierfür wurden über 5000 Einzelmessungen mit verschiedenen Topologien durchgeführt und statistisch ausgewertet. Aus den Ergebnissen wurden Formeln abgeleitet, mit deren Hilfe sich für ein beliebiges Netzwerk die Konvergenzeigenschaften anhand seiner Topologieeigenschaften approximieren lassen.
In dieser Arbeit werden jeweils ein Verfahren aus den beiden Bereichen der Bildregistrierung implementiert und beschrieben. Eine direkte und eine merkmalsbasierte Methode werden verglichen und auf ihre Grenzen hin überprüft. Die implementierten Verfahren funktionieren gut und registrieren beide verschiedene Bildserien subpixelgenau. Bei der direkten Methode ist vor allem die Wahl des Transformationsmodells ausschlaggebend. Auch das Einbetten der Methode in eine Gaußpyramidenstruktur hat sich als wichtig herausgestellt. Da die merkmalsbasierte Methode aus verschiedenen Komponenten aufgebaut ist, kann jeder einzelne Schritt durch unterschiedliche Verfahren ausgetauscht werden, so z.B. die Detektion der Merkmale durch Tomasi-Kanade, SIFT oder Moravec. In der direkten Methode kann die Genauigkeit der Ergebnisse zum einen durch den gewählten Schwellwert und zum anderen durch die Anzahl der Pyramidenstufen beeinflusst werden. Bei der merkmalsbasierten Methode wiederum können unterschiedlich viele Merkmale benutzt werden, die einen unterschiedlich hohen Schwellwert besitzen können. Es wird gezeigt, dass beide Methoden zu guten Ergebnissen führen, wenn davon ausgegangen wird, dass die Verschiebung sowie die Rotation gering sind. Bei stärkeren Veränderungen jedoch wird die direkte Methode recht ungenau, während die merkmalsbasierte Methode noch gute Ergebnisse erzielt. An ihre Grenze gerät sie erst, wenn entweder der Bildinhalt sich stark ändert, oder die Rotationen einen Winkel von 20° überschreitet. Beide Verfahren arbeiten also subpixelgenau, können aber unter verschiedenen Voraussetzungen zu Ungenauigkeiten führen. Werden die jeweiligen Probleme der beiden Methoden beachtet und am besten bei der Aufnahme oder vor der Registrierung eliminiert, so können sehr gute Ergebnisse erzielt werden.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Der Bereich der Annotation von digitalen Medien ist umfassend erforscht. Es gibt viele verschiedene innovative Ideen Annotationsprozesse zu gestalten. Den wahrscheinlich größten Anteil an verwandten Arbeiten hat die semiautomatische Annotation. Eine Eigenschaft aber ist allen Arbeiten gemein: Keine dieser Arbeiten untersucht, wie man ein Interface für einen Annotationsprozess optimieren kann, um den Nutzer zu unterstützen und folglich zufriedener zu machen. Die hier vorliegende Arbeit versucht im Rahmen einer Benutzerstudie die Usability Eigenschaften von verschiedenen Interface Varianten zu vergleichen, um anschließend Aussagen darüber machen zu können, welche Funktionen ein Annotationsinterface haben sollte und darf, um eben genau diese betreffenden Anforderungen zu erfüllen. Hierzu wurden verschiedene Ideen für Interfaces gesammelt, im Rahmen einer Diskussionsrunde mit Experten erörtert und letztendlich basierend auf den verbliebenen Ideen Variablen festgelegt, mit deren Kombination untereinander verschiedene Interfaces entstanden sind. Im Rahmen dieser Nutzerstudie konnte die Tendenz festgestellt werden, dass eine Autocompletion Funktion und Tag-Vorschläge während der Annotation hilfreich für den Nutzer sind. Außerdem konnte festgestellt werden, dass eine farbige Kennzeichnungen von Tag-Typen nicht störend auf den Nutzer wirken, sondern sich Ansätze in Richtung hilfreich erwiesen. Ähnliche Tendenzen wurden für ein Layout mit nur 2 User Interface Elementen aus den Daten abgelesen. Des weiteren konnte mit Hilfe der Evaluation ein weiteres Beispiel dafür gefunden werden, dass es zum Teil erhebliche Unterschiede zwischen den Nutzern gibt, was intuitiv ist und was nicht. Für die Gestaltung von zukünftigen Annotationsinterfaces bedeuten die Erkenntnisse, dass weitere Nutzerstudien im Bereich der Annotationsinterfaces durchgeführt und bei der Gestaltung der Interfaces von klassischen Merkmalen, im Sinne der Nutzerzufriedenheit, abgewichen werden darf.
The E-KRHyper system is a model generator and theorem prover for first-order logic with equality. It implements the new E-hyper tableau calculus, which integrates a superposition-based handling of equality into the hyper tableau calculus. E-KRHyper extends our previous KRHyper system, which has been used in a number of applications in the field of knowledge representation. In contrast to most first order theorem provers, it supports features important for such applications, for example queries with predicate extensions as answers, handling of large sets of uniformly structured input facts, arithmetic evaluation and stratified negation as failure. It is our goal to extend the range of application possibilities of KRHyper by adding equality reasoning.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
Szeneneditor für ein Echtzeitanimationssystem und andere XML konfigurierte und erweiterbare Systeme
(2006)
Generalized methods for automated theorem proving can be used to compute formula transformations such as projection elimination and knowledge compilation. We present a framework based on clausal tableaux suited for such tasks. These tableaux are characterized independently of particular construction methods, but important features of empirically successful methods are taken into account, especially dependency directed backjumping and branch local operation. As an instance of that framework an adaption of DPLL is described. We show that knowledge compilation methods can be essentially improved by weaving projection elimination partially into the compilation phase.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
Das sichere Befahren von komplexen und unstruktierten Umgebungen durch autonome Roboter ist seit den Anfängen der Robotik ein Problem und bis heute eine Herausforderung geblieben. In dieser Studienarbeit werden drei Verfahren basierend auf 3-D-Laserscans, Höhenvarianz, der Principle Component Analysis (PCA) und Tiefenbildverarbeitung vorgestellt, die es Robotern ermöglichen, das sie umgebende Terrain zu klassifizieren und die Befahrbarkeit zu bewerten, sodass eine sichere Navigation auch in Bereichen möglich wird, die mit reinen 2-D-Laserscannern nicht sicher befahren werden können. Hierzu werden 3-D-Laserscans mit einem 2-D-Laserscanner erstellt, der auf einer Roll-Tilt-Einheit basierend auf Servos montiert ist, und gleichzeitig auch zur Kartierung und Navigation eingesetzt wird. Die einzeln aufgenommenen 2-D-Scans werden dann anhand des Bewegungsmodells der Roll-Tilt-Einheit in ein emeinsames 3-D-Koordinatensystem transformiert und mit für die 3-D-Punktwolkenerarbeitung üblichen Datenstrukturen (Gittern, etc.) und den o.g. Methoden klassifiziert. Die Verwendung von Servos zur Bewegung des 2-D-Scanners erfordert außerdem eine Kalibrierung und Genauigkeitsbetrachtung derselben, um zuverlässige Ergebnisse zu erzielen und Aussagen über die Qualität der 3-D-Scans treffen zu können. Als Ergebnis liegen drei Implementierungen vor, welche evolutionär entstanden sind. Das beschriebene Höhenvarianz-Verfahren wurde im Laufe dieser Studienarbeit von einem Principle Component Analysis basierten Verfahren, das bessere Ergebnisse insbesondere bei schrägen Untergründen und geringer Punktdichte bringt, abgelöst. Die Verfahren arbeiten beide zuverlässig, sind jedoch natürlich stark von der Genauigkeit der zur Erstellung der Scans verwendeten Hardware abhängig, die oft für Fehlklassifikationen verantwortlich war. Die zum Schluss entwickelte Tiefenbildverarbeitung zielt darauf ab, Abgründe zu erkennen und tut dies bei entsprechender Erkennbarkeit des Abgrunds im Tiefenbild auch zuverlässig.
Terrainklassifikation mit Markov-Zufallsfeldern auf Basis von fusionierten Kamera- und Laserdaten
(2011)
Ein mobiles System, das sich automatisiert im Outdoor-Bereich fortbewegen soll, muss dafür über ausreichende Kenntnisse des umliegenden Terrains verfügen. Zur Analyse des Terrains werden hierbei häufig ein oder mehrere Laserentfernungsmesser, teilweise auch in Kombination mit Kameras verwendet. Probleme entstehen bei lückenhaften oder verrauschten Daten, da dies zu einer fehlerhaften Bestimmung des Geländes führen kann.
Diese Arbeit hat das Ziel ein bereits vorhandenes Verfahren zu erweitern. Dieses basiert auf 3D-Daten, ermittelt durch einen 3D-Laserscanner und soll um eine kontextsensitive Komponente und Daten anderer Sensoren ergänzt werden. Die erste Erweiterung besteht aus einem Markov-Zufallsfeld, welches zum Modellieren der Nachbarschaftsbeziehungen der einzelnen Terrainabschnitte verwendet wird und somit zur Segmentierung eingesetzt werden kann.
Als zweite Erweiterung werden die Laserdaten mit Kamerabildern fusioniert,um so die Verwendung zusätzlicher Terrainmerkmale zu ermöglichen.
This volume contains those research papers presented at the Second International Conference on Tests and Proofs (TAP 2008) that were not included in the main conference proceedings. TAP was the second conference devoted to the convergence of proofs and tests. It combines ideas from both areas for the advancement of software quality. To prove the correctness of a program is to demonstrate, through impeccable mathematical techniques, that it has no bugs; to test a program is to run it with the expectation of discovering bugs. On the surface, the two techniques seem contradictory: if you have proved your program, it is fruitless to comb it for bugs; and if you are testing it, that is surely a sign that you have given up on any hope of proving its correctness. Accordingly, proofs and tests have, since the onset of software engineering research, been pursued by distinct communities using rather different techniques and tools. And yet the development of both approaches leads to the discovery of common issues and to the realization that each may need the other. The emergence of model checking has been one of the first signs that contradiction may yield to complementarity, but in the past few years an increasing number of research efforts have encountered the need for combining proofs and tests, dropping earlier dogmatic views of their incompatibility and taking instead the best of what each of these software engineering domains has to offer. The first TAP conference (held at ETH Zurich in February 2007) was an attempt to provide a forum for the cross-fertilization of ideas and approaches from the testing and proving communities. For the 2008 edition we found the Monash University Prato Centre near Florence to be an ideal place providing a stimulating environment. We wish to sincerely thank all the authors who submitted their work for consideration. And we would like to thank the Program Committee members as well as additional referees for their great effort and professional work in the review and selection process. Their names are listed on the following pages. In addition to the contributed papers, the program included three excellent keynote talks. We are grateful to Michael Hennell (LDRA Ltd., Cheshire, UK), Orna Kupferman (Hebrew University, Israel), and Elaine Weyuker (AT&T Labs Inc., USA) for accepting the invitation to address the conference. Two very interesting tutorials were part of TAP 2008: "Parameterized Unit Testing with Pex" (J. de Halleux, N. Tillmann) and "Integrating Verification and Testing of Object-Oriented Software" (C. Engel, C. Gladisch, V. Klebanov, and P. Rümmer). We would like to express our thanks to the tutorial presenters for their contribution. It was a team effort that made the conference so successful. We are grateful to the Conference Chair and the Steering Committee members for their support. And we particularly thank Christoph Gladisch, Beate Körner, and Philipp Rümmer for their hard work and help in making the conference a success. In addition, we gratefully acknowledge the generous support of Microsoft Research Redmond, who financed an invited speaker.
Texture-based text detection in digital images using wavelet features and support vector machines
(2010)
In dieser Bachelorarbeit wird ein neues texturbasiertes Verfahren zur Detektion von Texten in digitalen Bildern vorgestellt. Das Verfahren kann im wesentlichen in zwei Hauptaufgaben unterteilt werden, in Detektion von Textblöcken und Detektion von einzelnen Wörtern, wobei die einzelnen Wörter aus den detektierten Textblöcken extrahiert werden. Im Groben agiert das entwickelte Verfahren mit mehreren Support Vector Machines, die mit Hilfe von waveletbasierten Merkmalen mögliche Textregionen eines Bildes zu wirklichen Textregionen klassiffzieren. Die möglichen Textregionen werden dabei durch unterschiedlich ausgerichtete Kantenprojektionen bestimmt. Das Resultat des Verfahrens sind X/Y Koordinaten, Breite und Höhe von rechteckigen Regionen eines Bildes, die einzelne Wörter enthalten. Dieses Wissen kann weiterverarbeitet werden, beispielsweise durch eine Texterkennungssoftware, um an die wichtigen und sehr nützlichen Textinformationrneines Bildes zu gelangen.
Zur Erstellung von 3-D-Oberflächenmodellen real existierender Objekte wird häufig sehr teure Hardware eingesetzt, z.B. 3-D-Laser-Range-Scanner. Da diese keine Grauwert- oder Farbinformationen erfassen können, muss das Objekt zur Wiedergabe farbiger Strukturen zusätzlich abfotografiert und mit den Bildern registriert werden. Die Arbeit entwickelt demgegenüber ein Verfahren zum Einsatz eines kalibrierten Stereokamerasystems. Aus den erhaltenen Sequenzen zweidimensionaler Stereobilder kann ein texturiertes 3-D-Mesh rekonstruiert werden. Im Vergleich zum Einsatz eines Scanners ist dieses Verfahren zwar weniger genau, aber dafür preisgünstiger, platzsparend und schneller einsetzbar. Den Schwerpunkt der Arbeit bilden die Fusionierung der Tiefenkarten und die Erstellung eines texturierten Meshs aus diesen.
TGraphBrowser
(2010)
Im Rahmen dieser Arbeit wird ein Webserver implementiert, mit dem man sich Graphen, die mit Hilfe des Java-Graphenlabors (JGraLab) erzeugt wurden, in einem Browser anzeigen lassen kann. Es werden dem Nutzer eine tabellarische und eine graphische Darstellung des Graphen angeboten. In jeder der beiden Darstellungsarten ist das Navigieren durch den Graphen möglich. Um Graphen mit mehreren tausend Elementen für den Nutzer überschaubarer zu machen, können die angezeigten Kanten und Knoten nach ihren Schematypen gefiltert werden. Ferner kann die dargestellte Menge an Graphelementen durch eine GReQL-Anfrage oder durch explizite Angabe bestimmt werden.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
The model evolution calculus
(2004)
The DPLL procedure is the basis of some of the most successful propositional satisfiability solvers to date. Although originally devised as a proof procedure for first-order logic, it has been used almost exclusively for propositional logic so far because of its highly inefficient treatment of quantifiers, based on instantiation into ground formulas. The recent FDPLL calculus by Baumgartner was the first successful attempt to lift the procedure to the first-order level without resorting to ground instantiations. FDPLL lifts to the first-order case the core of the DPLL procedure, the splitting rule, but ignores other aspects of the procedure that, although not necessary for completeness, are crucial for its effectiveness in practice. In this paper, we present a new calculus loosely based on FDPLL that lifts these aspects as well. In addition to being a more faithful litfing of the DPLL procedure, the new calculus contains a more systematic treatment of universal literals, one of FDPLL's optimizations, and so has the potential of leading to much faster implementations.
With the ongoing process of building business networks in today- economy, business to-business integration (B2B Integration) has become a strategic tool for utilizing and optimizing information exchange between business partners. Industry and academia have made remarkable progress in implementing and conceptualizing different kinds of electronic inter-company relationships in the last years. Nevertheless, academic findings generally focus exclusively on certain aspects of the research object, e.g. document standards, process integration or other descriptive criteria. Without arncommon framework these results stay unrelated and their mutual impact on each other remains largely unexplained. In this paper we explore motivational factors of B2B integration in practice. In a research project using a uniform taxonomy (eXperience methodology) we classified real-world B2B integration projects from a pool of over 400 case studies using a pre-developed framework for integration scenarios. The result of our partly exploratory research shows the influence of the role of a company in the supply chain and its motive to invest in a B2B solution.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.
The STOR project aims at the development of a scientific component system employing models and knowledge for object recognition in images. This interim report elaborates on the requirements for such a component system, structures the application area by identifying a large set of basic operations, and shows how a set of appropriate data structures and components can be derived. A small case studies exemplifies the approach.
Current political issues are often reflected in social media discussions, gathering politicians and voters on common platforms. As these can affect the public perception of politics, the inner dynamics and backgrounds of such debates are of great scientific interest. This thesis takes user generated messages from an up-to-date dataset of considerable relevance as Time Series, and applies a topic-based analysis of inspiration and agenda setting to it. The Institute for Web Science and Technologies of the University Koblenz-Landau has collected Twitter data generated beforehand by candidates of the European Parliament Election 2019. This work processes and analyzes the dataset for various properties, while focusing on the influence of politicians and media on online debates. An algorithm to cluster tweets into topical threads is introduced. Subsequently, Sequential Association Rules are mined, yielding wide array of potential influence relations between both actors and topics. The elaborated methodology can be configured with different parameters and is extensible in functionality and scope of application.
Die moderne Bildgebung in der Medizin arbeitet oft mit Daten höheren Tonwertumfangs. So haben beispielsweise Bilder aus CT-Geräten einen Dynamikbereich von 12 Bit, was 4096 Graustufen entspricht. Im Bereich der photorealistischen Computergrafik und zunehmend in der Bildverarbeitung sind Bilddaten viel höheren Tonwertumfangs üblich, die als HDR-Bilder (High Dynamic Range) bezeichnet werden. Diese haben eine Bittiefe von 16, oftmals sogar 32 Bit und können dadurch sehr viel mehr Informationen speichern, als herkömmliche 8-Bit-Bilder. Um diese Bilder auf üblichen Monitoren darstellen zu können, muss man die Bildinformation auf den Tonwertumfang des Ausgabegerätes abbilden, was man als Tonemapping bezeichnet. Es existieren zahlreiche solcher Tonemapping-Verfahren, die sich durch ihre Arbeitsweise, Geschwindigkeit und visuelle Qualität unterscheiden lassen. Im Rahmen dieser Studienarbeit sollen Tonemapping-Verfahren auf medizinische Bilddaten angewendet werden. Dabei soll sowohl die visuelle Qualität, als auch die Geschwindigkeit im Vordergrund stehen.
The paper is devoted to solving the problem of assessing the quality of the medical electronic service. A variety of dimensions and factors of quality, methods and models applied in different scopes of activity for assessing quality of service is researched. The basic aspects, requirements and peculiarities of implementing medical electronic services are investigated. The results of the analysis and the set of information models describing the processes of assessing quality of the electronic service "Booking an appointment with a physician" and developed for this paper allowed us to describe the methodology and to state the problem of the assessment of quality of this service.
Towards Improving the Understanding of Image Semantics by Gaze-based Tag-to-Region Assignments
(2011)
Eye-trackers have been used in the past to identify visual foci in images, find task-related image regions, or localize affective regions in images. However, they have not been used for identifying specific objects in images. In this paper, we investigate whether it is possible to assign image regions showing specific objects with tags describing these objects by analyzing the users' gaze paths. To this end, we have conducted an experiment with 20 subjects viewing 50 image-tag-pairs each. We have compared the tag-to-region assignments for nine existing and four new fixation measures. In addition, we have investigated the impact of extending region boundaries, weighting small image regions, and the number of subjects viewing the images. The paper shows that a tag-to-region assignment with an accuracy of 67% can be achieved by using gaze information. In addition, we show that multiple regions on the same image can be differentiated with an accuracy of 38%.
Tractography on HARDI data
(2011)
Diffusionsgewichtete Bildgebung ist eine wichtige Modalität in der klinischen Praxis. Sie stellt gegenwärtig die einzige Möglichkeit dar, nicht invasiv und in vivo Einblicke in das menschliche Gehirn zu erhalten. Die Einsatzgebiete dieser Technik sind sehr vielseitig. Sie wird zur Untersuchung des Gehirns, seiner Struktur, seiner Entwicklung und der Funktionsweisenseiner verschiedenen Areale einsetzt. Weiterhin spielt diese Modalität eine wichtige Rolle bei der Operationsplanung am Gehirn und der Untersuchung von Schlaganfall, Alzheimer und Multipler Sklerose. Diese Arbeit gibt eine kurze Einführung in die Bildgebungmittels MRT und geht auf die Entstehung diffusionsgewichtete Bilder ein. Darauf aufbauend wird der Diffusionstensor, die am meisten verbreitete Datenrepräsentation in der Diffusionsbildgebung, vorgestellt. Da die Repräsentation der Diffusion als Diffusionstensor erhebliche Einschränkungen darstellt, werden neue Methoden zur Datenrepräsentation vorgestellt und diskutiert. Diese neuen Methoden werden unter dem Begriff HARDI (Diffusionsbildgebung mit hoher Winkelauflösung, von engl. high angular resolution diffusion imaging) zusammengefasst. Weiterhin wird eine ausführliche Einführung in das Thema der Traktografie, der Rekonstruktion von Nervenbahnen im Gehirn, gegeben. Basierend auf diesem theoretischenWissen werden etablierte Algorithmen der Traktografie von Diffusionstensor- auf HARDI-Daten überführt. Dadurch wird die Rekonstruktion derNervenbahnen entscheidend verbessert. Es wird eine vollständig neue Methode vorgestellt, die in der Lage ist, Nervenbahnen sowohl auf einem Phantomdatensatz, als auch auf einem vom Menschen stammenden Gehirndatensatz zu rekonstruieren. Weiterhin wird ein neuartiger globaler Ansatz vorgestellt, um Voxel anhand ihrer Diffusionseigenschaften zu klassifizieren.
Im Rahmen dieser Diplomarbeit wird ein Transaktionskonzept für die aktuelle Implementationsversion der TGraphenbibliothek JGraLab Carnotaurus umgesetzt. Nach einer grundlegenden Einführung in das Konzept der TGraphen werden die relevanten Implementationsdetails der TGraphenbibliothek erläutert. Anschließend erfolgt ein konzeptueller Entwurf, in dem die formalen Grundlagen des Transaktionskonzepts beschrieben werden. Das aus der Datenbankwelt bekannte ACID-Paradigma für Transaktionen dient dabei als wissenschaftliche Grundlage. In einem nächsten Schritt erfolgt der objektorientierte Feinentwurf der Integration des zu entwickelnden Transaktionskonzepts in das vorhandene Gesamtsystem, anhand dessen die Implementation durchgeführt wird. Eine Analyse und Bewertung des umgesetzten Transaktionskonzepts (vor allem im Hinblick auf den Speicherverbrauch und das Laufzeitverhalten) schließen die Arbeit ab.
Dezentrale digitale Transaktionssysteme mit öffentlicher Transaktionshistorie haben ihrer Architektur nach keine Transaktionsüberwachung, um unerwünschte Transaktionen zu unterbinden und deren Sender und Empfänger zu identifizieren. Mit Einführung einer öffentlichen Liste von Adressen, welche zu solchen unerwünschten Transaktionen gehören, ist es möglich, diese Adressen durch allgemeinen Ausschluss zu isolieren und dadurch die unerwünschten Transaktionen zu unterbinden sowie Besitzer unerwünschter Adressen zu deanonymisieren. Die Verwaltung von öffentlichen Listen kann dabei dezentral von mehreren Instanzen mit Hilfe eines Vertrauensnetzwerks durchgeführt werden, sodass der dezentrale Charakter der Systeme erhalten bleibt.
Im Rahmen dieser Arbeit werden die Möglichkeiten und Grenzen des Geometry-Shaders in Bezug auf die Triangulierung von Freiformflächen untersucht. Dazu steht die Konzeption und Entwicklung eines Geometry-Shaders im Vordergrund, der Freiformflächen möglichst performant zur Laufzeit triangulieren kann. Hierzu werden NURBS-Datensätze eingelesen, trianguliert und dargestellt.
UML models and OWL ontologies constitute modeling approaches with different strength and weaknesses that make them appropriate for use of specifying different aspects of software systems. In particular, OWL ontologies are well suited to specify classes using an expressive logical language with highly flexible, dynamic and polymorphic class membership, while UML diagrams are much more suitable for specifying not only static models including classes and associations, but also dynamic behavior. Though MOF based metamodels and UML profiles for OWL have been proposed in the past, an integrated use of both modeling approaches in a coherent framework has been lacking so far. We present such a framework, TwoUse, for developing integrated models, comprising the benefits of UML models and OWL ontologies
Graph-based data formats are flexible in representing data. In particular semantic data models, where the schema is part of the data, gained traction and commercial success in recent years. Semantic data models are also the basis for the Semantic Web - a Web of data governed by open standards in which computer programs can freely access the provided data. This thesis is concerned with the correctness of programs that access semantic data. While the flexibility of semantic data models is one of their biggest strengths, it can easily lead to programmers accidentally not accounting for unintuitive edge cases. Often, such exceptions surface during program execution as run-time errors or unintended side-effects. Depending on the exact condition, a program may run for a long time before the error occurs and the program crashes.
This thesis defines type systems that can detect and avoid such run-time errors based on schema languages available for the Semantic Web. In particular, this thesis uses the Web Ontology Language (OWL) and its theoretic underpinnings, i.e., description logics, as well as the Shapes Constraint Language (SHACL) to define type systems that provide type-safe data access to semantic data graphs. Providing a safe type system is an established methodology for proving the absence of run-time errors in programs without requiring execution. Both schema languages are based on possible world semantics but differ in the treatment of incomplete knowledge. While OWL allows for modelling incomplete knowledge through an open-world semantics, SHACL relies on a fixed domain and closed-world semantics. We provide the formal underpinnings for type systems based on each of the two schema languages. In particular, we base our notion of types on sets of values which allows us to specify a subtype relation based on subset semantics. In case of description logics, subsumption is a routine problem. For
the type system based on SHACL, we are able to translate it into a description
logic subsumption problem.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.
This habilitation thesis collects works addressing several challenges on handling uncertainty and inconsistency in knowledge representation. In particular, this thesis contains works which introduce quantitative uncertainty based on probability theory into abstract argumentation frameworks. The formal semantics of this extension is investigated and its application for strategic argumentation in agent dialogues is discussed. Moreover, both the computational as well as the meaningfulness of approaches to analyze inconsistencies, both in classical logics as well as logics for uncertain reasoning is investigated. Finally, this thesis addresses the implementation challenges for various kinds of knowledge representation formalisms employing any notion of inconsistency tolerance or uncertainty.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Unlocking the semantics of multimedia presentations in the web with the multimedia metadata ontology
(2010)
The semantics of rich multimedia presentations in the web such as SMIL, SVG and Flash cannot or only to a very limited extend be understood by search engines today. This hampers the retrieval of such presentations and makes their archival and management a difficult task. Existing metadata models and metadata standards are either conceptually too narrow, focus on a specific media type only, cannot be used and combined together, or are not practically applicable for the semantic description of rich multimedia presentations. In this paper, we propose the Multimedia Metadata Ontology (M3O) for annotating rich, structured multimedia presentations. The M3O provides a generic modeling framework for representing sophisticated multimedia metadata. It allows for integrating the features provided by the existing metadata models and metadata standards. Our approach bases on Semantic Web technologies and can be easily integrated with multimedia formats such as the W3C standards SMIL and SVG. With the M3O, we unlock the semantics of rich multimedia presentations in the web by making the semantics machine-readable and machine-understandable. The M3O is used with our SemanticMM4U framework for the multi-channel generation of semantically-rich multimedia presentations.
Unternehmen in Netzwerken
(2007)
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.
Die vorliegende Arbeit beschäftigt sich mit den Unterstützungsmöglichkeiten des stationären Vertriebs mithilfe aktueller mobiler Anwendungen. Das Internet hat bereits dafür gesorgt, dass der Handelsmarkt dynamischer und die Bedingungen für den langjährigen stationären Vertrieb anspruchsvoller geworden sind. Online-Händler bieten aufgrund kleinerer Kostenstrukturen Preise an, bei denen der stationäre Point of Sale nur schwerlich mithalten kann. Zudem steigert sich die Akzeptanz Online-Kaufabschlüsse umzusetzen, weil sich Serviceleistungen der e-Shops verbessert haben und digitale Transaktionen für moderne Konsumenten immer attraktiver werden. Heute haben Smartphones und Tablets die Digitalisierung unserer Gesellschaft auf ein ganz neues Niveau katapultiert. Durch den Einzug des mobilen Internets haben sich die Effekte, die das stationäre Internet bereits hervorbrachte, intensiviert. Die Frage die sich dabei stellt ist: Wie sehr werden sich die Wettbewerbsbedingungen für den stationären Vertrieb verändern? Dabei verfolgt die Arbeit das Ziel aktuelle mobile Dienste, ihre Funktionalitäten und Praxisanwendungen zusammenzutragen und in geeigneter Form in den Vertriebsprozess zu integrieren. Dadurch soll die Erkenntnis gewonnen werden, ob der Einzug des mobilen Internets nicht doch als ein Vorteil für den stationären Vertrieb angesehen werden darf.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Remote Rendering ist eine Möglichkeit aufwändige Grafik von leistungsstarker Hardware für leistungsschwächere Endgeräte bereitzustellen. Durch den Transfer der Daten über ein Netzwerk entsteht eine Verzögerung, welche die Interaktivität einschränkt. Ein Verfahren, um Befehle an eine virtuelle Kamera auf dem Endgerät direkt umzusetzen, wird 3D-Warping genannt. Das Verfahren erzeugt jedoch Bildartefakte. In dieser Arbeit werden verschiedene Ansätze für Remote Rendering Setups aufgezeigt. Zusätzlich werden die auftretenden Artefakte des Warpings und Methoden zur Verbesserung des Verfahrens beschrieben. Es werden eigene Implementationen und Verbesserungen vorgestellt und untersucht.
Im Institut MTI Mittelrhein wird untersucht, wie sich Training und Erfahrung auf die Bewegung und Bewegungsplanung im Sport auswirken. Im Rahmen dieser Untersuchungen soll das Bewegungsverhalten eines Kletterers an einer Sportkletterwand analysiert werden. Das Ziel der Arbeit ist es, die Bewegungen eines Kletterers in Videoaufnahmen zu segmentieren und markerbasiert zu detektieren. Die segmentierten Marker aus jedem Bild werden mit einem Trackingverfahren über die Zeit verfolgt und die Bewegungsspuren in einem geeigneten Format für die Bewegungsanalyse-Software Simi Motion exportiert, um dort weitere Analysen zu ermöglichen.
Hybrid systems are the result of merging the two most commonly used models for dynamical systems, namely continuous dynamical systems defined by differential equations and discrete-event systems defined by automata. One can view hybrid systems as constrained systems, where the constraints describe the possible process flows, invariants within states, and transitions on the one hand, and to characterize certain parts of the state space (e.g. the set of initial states, or the set of unsafe states) on the other hand. Therefore, it is advantageous to use constraint logic programming (CLP) as an approach to model hybrid systems. In this paper, we provide CLP implementations, that model hybrid systems comprising several concurrent hybrid automata, whose size is only straight proportional to the size of the given system description. Furthermore, we allow different levels of abstraction by making use of hierarchies as in UML statecharts. In consequence, the CLP model can be used for analyzing and testing the absence or existence of (un)wanted behaviors in hybrid systems. Thus in summary, we get a procedure for the formal verification of hybrid systems by model checking, employing logic programming with constraints.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
Für diese Studienarbeit können zwei Schwerpunkte genannt werden. Einerseits sollten verschiedene Verfahren zur Fluchtpunktschätzung aus Wissenschaft und Forschung eingänglich untersucht und erörtert werden. Dies im Hinblick auf ein detaillierteres Analyseverfahren, das die Möglichkeit bietet, mehrere Gebäudeseiten automatisiert entzerren zu können. Andererseits sollten sich die gewünschten Verbesserungen in das bereits vorhandene Gesamtsystem des Projekts Ornamente eingliedern, um so das Endergebnis der Klassifizierung von Ornamenten zu verbessern. Daraus entstanden die in Kapitel 1 genannten Hauptaufgaben. Neben dem TAM-Verfahren, dass im vorhandenen Teilprozess der Entzerrung bereits zum Einsatz kam, wurde in Kapitel 2 das Verfahren KHT nach Tuytelaars beschrieben. Ansätze der KHT waren im Bestehenden zu erkennen, wie sich während der anfänglichen Einarbeitung in das Themengebiet Fluchtpunktfindung und dem Gesamtsystem der Ornamentklassifizierung herausstellte. Allerdings waren einige Aspekte, wie sie von Tytelaars et al. in [TGPM98] zur KHT beschrieben sind, nicht enthalten. Der erste Lösungsansatz zur Entzerrung von mehreren Gebäudeseiten bestand darin, die KHT unabhängig von allen Prozessen des Gesamtsystems zu implementieren, um so die Genauigkeit der Fluchtpunktdetektion zu erhöhen. Mit dieser detaillierteren Fluchtpunktfindung sollte das bereits bestehende Modul der Entzerrung zu besseren Ergebnissen führen. Um die Entzerrung für sich alleine nutzen zu können, musste sie vorerst von der vorhandenen Fluchtpunktschätzung isoliert werden. Während der in Kapitel 3 beschriebenen Umstrukturierung und Trennung der beiden Prozesse wurde das eigentliche Problem der Verarbeitung von mehreren Gebäudeseiten erkannt. Nicht die Fluchtpunkte und die Verfahren für ihre Detektion sind ausschlaggebend, weitere Ebenen im Bild erkennen zu können. Vielmehr verhindert dies der fehlende Rückschluss von extrahierten Kanten auf die Lage, Größe und Anzahl der im Bild vorhandenen Gebäudeseiten. Wären hierzu Informationen bekannt, könnten, wie auch für ornamentale Bereiche, ROIs festgelegt werden, die mit einer hohen Wahrscheinlichkeit eine abgegrenzte Gebäudeseite beinhalten. Um diese daraufhin zu entzerren, kann das jetzt isolierte Programm zur Entzerrung genutzt werden. Die KHT umzusetzen, wurde als Lösungsweg verworfen und der eigene Lösungsansatz "Level of Detail" aus Kapitel 3 wurde entwickelt. Die entstandenen Programme wurden wie gefordert in PUMA, der "Programmierumgebung für die Musteranalyse" eingebunden. Wie die Test aus Kapitel 4 jedoch zeigen, konnte damit keine Verbesserung erzielt werden.
Im Rahmen dieser Arbeit wurde die Effizienz von Anfragen an OWL-Ontologien und Anfragen an TGraphen evaluiert. Dabei wurden die zwei unterschiedlichen Transformationsverfahren Schema-Aware Mapping und Simple Mapping getestet. Bei der Transformation einer OWL-Ontologie in einen TGraphen über Schema-Aware Mapping werden ein TGraph-Schema und ein TGraph erzeugt. Im Gegensatz zu Schema-rnAware Mapping besitzt Simple Mapping ein schon vordefiniertes TGraph-Schema, das für alle OWLOntologien anwendbar ist. Damit wird bei der Transformation einer OWL-Ontologie in einen TGraphen über Simple Mapping nur ein TGraph - kein TGraph-Schema - generiert. Mit den Verfahren wurden entsprechend auch SPARQL-Anfragen in GReQL-Anfragen transformiert.
Diese Arbeit erarbeitet einen Vergleich verschiedener medizinischer Medikamenten-Dispenser. Ein Medikamenten-Dispenser ist eine Vorrichtung, die es erlaubt von einer größeren Menge Medikamente, eine kleinere zu entnehmen. Um den Vergleich durchzuführen wurden 15 Anforderungen an diese Dispenser gefunden. Der Einnahmeerleichterung sind die Anforderungen "Organisation", "Erinnerung" und "Ergonomie" zugeordnet. Zur Compliance, also Therapietreue, gehören "Compliance", "Anpassbarkeit", "Selektivität", "Persistenz", "Funktionalität", "Richtigkeit" und "Spezifität/Sensitivität". Damit stellt diese Kategorie die meisten Anforderungen. Die Kategorie Aufbewahrung sammelt "Hygiene", "Darreichungsformen" und "Robustheit". Schließlich wurden die Anforderungen "Übersichtlichkeit" und "Datenschutz" den sonstigen Anforderungen zugeordnet. Anschließend wurden verschiedene Dispenser-Konzepte zunächst vorgestellt und darauf auf die Erfüllung der Anforderungen hin analysiert. Es wurden folgende Konzepte analysiert: Tablettendose, Wochendispenser, Blister, Schlauchbeutel, MEMS, OtCM, elektronischer Dispenser, App. Nach der Analyse konnten die Dispenser miteinander verglichen werden. Es stellte sich heraus, dass alle Konzepte Mängel aufweisen. Daher entwickelte der Autor ein eigenes Konzept, welches alle Anforderungen bis auf zwei gut bis sehr gut erfüllt. Damit stellt es das mächtigste Konzept dar.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die Entwicklung von Algorithmen im Sinne des Algorithm Engineering geschieht zyklisch. Der entworfene Algorithmus wird theoretisch analysiert und anschließend implementiert. Nach der praktischen Evaluierung wird der Entwurf anhand der gewonnenen Kenntnisse weiter entwickelt. Formale Verifffizierung der Implementation neben der praktischen Evaluierung kann den Entwicklungsprozess verbessern. Mit der Java Modeling Language (JML) und dem KeY tool stehen eine einfache Spezififfkationssprache und ein benutzerfreundliches, automatisiertes Verififfkationstool zur Verfügung. Diese Arbeit untersucht, inwieweit das KeY tool für die Verifffizierung von komplexeren Algorithmen geeignet ist und welche Rückmeldungen für Algorithmiker aus der Verififfkation gewonnen werden können.Die Untersuchung geschieht anhand von Dijkstras Algorithmus zur Berechnung von kürzesten Wegen in einem Graphen. Es sollen eine konkrete Implementation des Standard-Algorithmus und anschließend Implementationen weiterer Varianten verifffiziert werden. Dies ahmt den Entwicklungsprozess des Algorithmus nach, um in jeder Iteration nach möglichen Rückmeldungen zu suchen. Bei der Verifffizierung der konkreten Implementation merken wir, dass es nötig ist, zuerst eine abstraktere Implementation mit einfacheren Datenstrukturen zu verififfzieren. Mit den dort gewonnenen Kenntnissen können wir dann die Verifikation der konkreten Implementation fortführen. Auch die Varianten des Algorithmus können dank der vorangehenden Verififfkationen verifiziert werden. Die Komplexität von Dijkstras Algorithmus bereitet dem KeY tool einige Schwierigkeiten bezüglich der Performanz, weswegen wir während der Verifizierung die Automatisierung etwas reduzieren müssen. Auf der anderenrn Seite zeigt sich, dass sich aus der Verifffikation einige Rückmeldungen ableiten lassen.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Die Ausgabe von immer echter und realistischer aussehenden Bildern auf Bildschirmen ist heute ein wichtiger Bestandteil in der Konzeption, Präsentation und Simulation von neuen Produkten in der Industrie. Trotz der auch immer physikalisch echter werdenden Grafiksimulationen ist man bei der Ausgabe auf Bildschirme angewiesen, die einen limitierenden Faktor darstellen: Leuchtdichten in Simulationen gehen dabei weit über tatsächlich darstellbare Leuchtdichten von Monitoren hinaus. Das menschliche Auge ist hingegen in der Lage, einen großen Dynamikumfang zu sehen, sich an gegebene Beleuchtungsverhältnisse anzupassen und auch kleinste Unterschiede in der Helligkeit einer Szene wahrzunehmen. Für die Ausgabe solcher High-dynamic-Range-Bilder auf herkömmlichen Monitoren müssen sogenannte Tonemappingverfahren jene Bilder auf den darstellbaren Bereich reduzieren. Manche dieser Verfahren bedienen sich dabei direkt der Physiologie des Auges, um eine realistische Ausgabe zu erzeugen, andere dienen eher zur Stilisierung. Ziel dieser Studienarbeit ist die Entwicklung eines Tonemappingverfahrens, das ein vertrauenswürdiges Ergebnis liefert. Ein solches Ergebnis ist erreicht, wenn der Betrachter keine Unstimmigkeiten im Bild vorfindet, die der Realität widersprechen. Der Gesamteindruck soll dem entsprechen, was der Nutzer sehen würde, stünde er direkt neben der aufgenommenen Szene. Für eine abschließende Evaluation wurde insbesondere eine reale Boxszene am Computer nachmodelliert und gerendert. Neben einem HDR-Foto kann damit der neu entstandene Tonemapping-Operator untersucht und mit bereits vorhandenen Tonemappingverfahren verglichen werden. 13 Probanden haben an dieser Evaluation teilgenommen, um die Leistungsfähigkeit und Qualität zu bewerten.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
Virtual Goods + ODRL 2012
(2012)
This is the 10th international workshop for technical, economic, and legal aspects of business models for virtual goods incorporating the 8th ODRL community group meeting. This year we did not call for completed research results, but we invited PhD students to present and discuss their ongoing research work. In the traditional international group of virtual goods and ODRL researchers we discussed PhD research from Belgium, Brazil, and Germany. The topics focused on research questions about rights management in the Internet and e-business stimulation. In the center of rights management stands the conception of a formal policy expression that can be used for human readable policy transparency, as well as for machine readable support of policy conformant systems behavior up to automatic policy enforcement. ODRL has proven to be an ideal basis for policy expressions, not only for digital copy rights, but also for the more general "Policy Awareness in the World of Virtual Goods". In this sense, policies support the communication of virtual goods, and they are a virtualization of rules-governed behavior themselves.
Diese Studienarbeit soll eine Einführung in die Arbeit mit virtual network user mode linux (VNUML) geben. Mit Hilfe dieser Arbeit möchte ich speziell die Version VNUML 1.6 näher bringen und die wesentlichen Unterschiede, Vor- und Nachteile zur Version 1.5 zeigen. In den nächsten zwei Kapiteln wird auf das Thema VNUML und UML oberflächlich eingegangen. Das darauffolgende Kapitel befasst sich mit der Installation von VNUML 1.6, der Vorraussetzung und den möglichen Fehlermeldungen. Wenn dies abgeschlossen ist, wird VNUML 1.6 mit eigenen Beispielen ausfürlich, praktisch und theoretisch vorgestellt. Danach werden die wesentlichen Unterschiede von VNUML 1.5 zu VNUML 1.6 beschrieben. Zum Abschluss sind noch ein Kapitel mit kurzen Begriffsdefinitionen und der Anhang mit allen XML-Dateien zu finden. Auf den Aufbau einer XML-Datei möchte ich in meiner Arbeit nicht weiter eingehen. Dazu verweise ich auf die Arbeit von Thomas Chmielowiec und Tim Keupen. In diesen Arbeiten sind die XML-Syntax und Semantik ausfürlich beschrieben.
Diese Arbeit bewegt sich im Spannungsfeld dreier Gebiete: Virtualisierung, Echtzeitverarbeitung und Parallelverarbeitung. Jedes dieser Gebiete gilt für sich genommen als weitgehend erforscht, doch ergeben sich bei ihrer gemeinsamen Betrachtung zahlreiche neue Fragestellungen und Möglichkeiten. In dieser Arbeit werden dazu Modelle zur Beschreibung von Echtzeitanwendungen innerhalb der Prozesshierarchie einer Virtualisierungsumgebung entwickelt. Bestehende Schnittstellen zur Virtualisierung werden auf ihre Möglichkeiten zur Echtzeitverarbeitung untersucht, und es werden neue Schnittstellen zur Virtualisierung auf Mehrprozessormaschinen geschaffen und erprobt, die die spezifischen Anforderungen eingebetteter Systeme "insbesondere die Echtzeitfähigkeit" berücksichtigen. Damit wird eine sichere und effiziente Koexistenz von Programmen mit unterschiedlich harten Zeitanforderungen in getrennten virtuellen Maschinen auf einem gemeinsamen Mehrprozessorrechner ermöglicht.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
Die automatische Detektion der Lage und Ausrichtung von Unterwasser-Kabeln oder -Pipelines in Kamerabildern ermöglicht es, Unterwasserfahrzeuge autonome Kontrollfahrten durchführen zu lassen. Durch Pflanzenwuchs auf und in der Nähe von Kabeln bzw. Pipelines wird deren visuelle Erfassung jedoch erschwert: Die Bestimmug der Lage über die Detektion von Kanten mit anschließender Linien-Extraktion schlägt oft fehl. Probabilistische Ansätze sind hier den deterministischen überlegen. Durch die Modellierung von Wahrscheinlichkeiten kann trotz geringer Anzahl von extrahierten Merkmalen eine Aussage über den Zustand des Systems getroffen werden. Diese Arbeit stellt ein neues auf Partikelfiltern basierendes Tracking-System für die Verfolgung von Kabeln und Pipelines in Bildsequenzen vor. Umfangreiche Experimente auf realistischen Unterwasser-Videos zeigen die Robustheit und Performanz des gewählten Ansatzes sowie Vorteile gegenüber vorangegangenen Arbeiten.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
Seit 2005 beschäftige ich mich im Rahmen der Künstlergruppe "Farbraum" mit visuellen Installationen und live Video Performaces auf kulturellen Events. Dafür haben wir einzelne Video-Performance Applikationen entwickelt, die die Probleme einzelner Projekte lösen.Was uns bisher noch nicht gelang ist a) eine modulare Softwarearchitektur zu entwickeln und b) ein Werkzeug zur Entzerrung ebener Flächen, die nicht rechtwinklig projiziert werden, zu erstellen (unter der Annahme, dass Projektoren verwendet werden). Diese Arbeit beschreibt die Lösung des ersten Problems durch die Entwicklung eines modularen Frameworks und des zweiten Problems durch die Implementation eines benutzerfreundlichen Moduls zur Entzerrung von ebenen Flächen. Die Entzerrung findet komplett manuell statt, indem der Benutzer die Koordinaten der Flächeneckpunkte durch das Ziehen der Punkte mit der Maus verändert. Dabei werden die xund y-Werte der Eckpunkte verändert, der z-Wert bleibt konstant. Während auf diese Weise die 3D-Interaktion mittels eines 2D-Eingabegeräts verhindert wird, führt die ausschließlich zweidimensionale Transofrmation der Flächen zu unerwünschten Textur-Mapping Artifakten, die durch das Triangulierungs-basierte Rendern von Grafikkarten entstehen. Um diese Artifakte zu vermeiden, wird ein Verfahren names "adaptive Subdivision" vorgestellt, das die entsandenen Rendering-Fehler korrigiert.
Wireshark und VNUML Im Rahmen dieser Studienarbeit sollen einige Netzwerk-Protokolle mit dem Protokollanalyser Wireshark beobachtet und der Umgang damit beschrieben werden. Wireshark ist ein Ableger von "Ethereal", einem der bekanntesten Protokoll-Analyser. Wireshark analysiert Netzwerkverkehr, zeichnet ihn auf und stellt ihn übersichtlich dar. Für die Simulation des Netzwerks wird VNUML verwendet. Da VNUML nur unter Linux verwendet werden kann, wird andLinux als virtuelle Maschine dazwischen geschaltet um auch in Windows arbeiten zu können.
Die Motivation für diese Arbeit bestand darin, den Studierenden in den Rechnerpools der Universität Koblenz die Möglichkeit zu geben, mit der Simulationssoftware VNUML (Virtual Network User Mode Linux) zu arbeiten. Eingesetzt wird diese Software in den Vorlesungen und Übungen zu Rechnernetzen I und II, was eine Anwendung der Software für die Studenten unumgänglich macht. In der Vergangenheit gab es jedoch immer wieder Probleme bei der Installation und Einrichtung auf den privaten Rechnern, obwohl in früheren Studienarbeiten mehrfach vereinfachte Installationsroutinen entwickelt worden waren. Ein weiteres Problem für die Verwendung von VNUML stellt auch die Tatsache dar, dass die Software nur in einer Linux-Umgebung lauffähig ist. Da aber nicht alle Studierenden das Betriebssystem Linux benutzen und viele vor einer Installation allein zur Verwendung von VNUML zurückschrecken, war es schon länger angedacht, diese Software an den Rechnern der Universität zur Verfügung zu stellen. In dieser Arbeit wird der Prozess beschrieben, wie eine Installation der VNUML-Software in den Rechnerpools möglich war, welche Probleme dabei aufgetreten sind und welche Alternativen zur gewählten Vorgehensweise möglich gewesen wären. Das Ergebnis bietet auch eine sehr einfache Installation für den privaten Anwender, ohne dass hierfür eine eigenständige Linux-Installation nötig wäre. Auch wurden während der Entwicklung immer weitere Verbesserungen vorgenommen, welche die Anwenderfreundlichkeit der endgültigen Lösung weiter erhöhten. Die Möglichkeiten und Ideen sind dabei auch so vielfältig, dass sich die Arbeitsgruppe noch weiter mit diesem Thema beschäftigen wird und weitere Optimierungen vorgenommen werden können.
This paper introduces Vocville, a causal online game for learning vocabularies. I am creating this application for my master thesis of my career as a "Computervisualist" (computer visions) for the University of Koblenz - Landau. The application is an online browser game based on the idea of the really successful Facebook game FarmVille. The application is seperated in two parts; a Grails application manages a database which holds the game objects like vocabulary, a Flex/Flash application generates the actual game by using these data. The user can create his own home with everything in it. For creating things, the user has to give the correct translation of the object he wants to create several times. After every query he has to wait a certain amount of time to be queried again. When the correct answer is given sufficient times, the object is builded. After building one object the user is allowed to build others. After building enough objects in one area (i.e. a room, a street etc.) the user can activate other areas by translating all the vocabularies of the previous area. Users can also interact with other users by adding them as neighbors and then visiting their homes or sending them gifts, for which they have to fill in the correct word in a given sentence.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
In unserer heutigen Welt spielen soziale Netzwerke eine immer größere werdende Rolle. Im Internet entsteht fast täglich eine neue Anwendung in der Kategorie Web 2.0. Aufgrund dieser Tatsache wird es immer wichtiger die Abläufe in sozialen Netzwerken zu verstehen und diese für Forschungszwecke auch simulieren zu können. Da alle gängigen sozialen Netzwerke heute nur im eindimensionalen Bereich arbeiten, beschäftigt sich diese Diplomarbeit mit mehrdimensionalen sozialen Netzwerken. Mehrdimensionale soziale Netzwerke bieten die Möglichkeit verschiedene Beziehungsarten zu definieren. Beispielsweise können zwei Akteure nicht nur in einer "kennt"-Beziehung stehen, sondern diese Beziehungsart könnte auch in diverse Unterbeziehungsarten, wie z.B. Akteur A "ist Arbeitskollege von" Akteur B oder Akteur C "ist Ehepartner von" Akteur D, unterteilt werden. Auf diese Art und Weise können beliebig viele, völlig verschiedene Beziehungsarten nebeneinander existieren. Die Arbeit beschäftigt sich mit der Frage, in welchem Grad die Eigenschaften von eindimensionalen auch bei mehrdimensionalen sozialen Netzwerken gelten. Um das herauszufinden werden bereits bestehende Metriken weiterentwickelt. Diese Metriken wurden für eindimensionale soziale Netzwerke entwickelt und können nun auch für die Bewertung mehrdimensionaler sozialer Netzwerke benutzt werden. Eine zentrale Fragestellung ist hierbei wie gut sich Menschen finden, die sich etwas zu sagen haben. Um möglichst exakte Ergebnisse zu erhalten, ist es notwendig reale Daten zu verwenden. Diese werden aus einem Web 2.0-Projekt, in das Benutzer Links zu verschiedenen Themen einstellen, gewonnen (siehe Kapitel 4). Der erste praktische Schritte dieser Arbeit besteht daher darin, das soziale Netzwerk einzulesen und auf diesem Netzwerk eine Kommunikation, zwischen zwei Personen mit ähnlichen Themengebieten, zu simulieren. Die Ergebnisse der Simulation werden dann mit Hilfe der zuvor entwicklelten Metriken ausgewertet.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
Im Rahmen dieser Arbeit wird ein Webservice (SOA) entworfen und implementiert, mit dem eine Audiodatei auf Inhalte eines Wasserzeichens ferngesteuert überprüft werden kann. Die Arbeit ist Teil des URM-Projekts (Usage Rights Management), das an der Universität Koblenz-Landau entwickelt wird. Dabei handelt es sich um ein Konzept der Lizenzierung, bei dem die Nutzer über ihre Rechte an erworbenen digitalen Gütern informiert werden. Die Arbeit stellt am Beispiel von WAV-Dateien einen rudimentären Weg dar, wie im Rahmen von URM die Informationen, die bei der Lizenzerstellung verwendet werden, aus einem digitalen Medium extrahiert werden können.
Diese Arbeit beschreibt einen Ansatz zur webbasierten und GPU-unterstützten medizinischen Visualisierung. Der Schwerpunkt liegt auf der client-seitigen Ausführung von direktem Volumen-Rendering mittels WebGL und der Übertragung von medizinischen Datensätzen von Server zu Client. Die Motivation dieser Arbeit liegt vor allem in den neuesten Entwicklungen von Webtechnologien begründet, da es bisher nicht möglich war hardwarebeschleunigte 3D-Grafik direkt im Webbrowser darzustellen. Erst seit der Entwicklung der 3D-Grafik-Programmierschnittstelle WebGL besteht die Möglichkeit GPU-unterstütztes Volumenrendering im Browser-Kontext ohne den Einsatz zusätzlicher Software zu realisieren. Es wird ein webbasiertes Volumenrendering-System vorgestellt, das die Umsetzung von Volumen-Raycasting mit WebGL zur direkten Darstellung von Volumendaten in Echtzeit behandelt. Für die technische Umsetzung wurden das Google Web Toolkit und die Google App Engine als Infrastruktur verwendet.
Im Rahmen der Studienarbeit wurde ein webbasiertes Informationssystem für die neuen Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz-Landau entwickelt. Dieses System dient i.A. der Visualisierung und der (Online)-Editierung des Modulhandbuchs. Die Studienarbeit selbst beschreibt die Vorgehensweise bei der Systemumsetzung. Sie beschreibt die Phasen der Anforderungserhebung, der Modellierung, der Implementierung und des Testens.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Das Routing Information Protocol (RIP) ist ein Internet-Standard-Routing-Protokoll, das einst mit zu den am meisten eingesetzten Routing-Protokollen in IP-Netzwerken gehörte. Es basiert auf dem sogenannten Distanzvektoralgorithmus und ist in seiner Funktion und seinem Aufbau sehr einfach ausgelegt. Seit jeher leidet es allerdings unter dem sogenannten Counting-to-Infinity (CTI) Problem, bei dem die Erreichbarkeit einer eigentlich ausgefallenen Verbindung zu einem Ziel scheinbar aufrechterhalten wird. Die Distanz zu diesem Ziel wird aufgrund des fortwährenden Austauschs von nicht mehr gültigen Verbindungsinformationen zwischen in einem Ring geschalteten RIP-Routern hochgezählt, theoretisch bis ins Unendliche. Dabei entstehen Routingschleifen, die den Netzwerkbetrieb erheblich stören können, da die gesendeten Netzwerkpakete aufgrund der Schleife die selben Router immer wieder passieren und weder an ihr eigentliches Ziel gelangen noch verworfen werden können. Die Gefahr des Auftretens des CTI-Problems schränkt die Einsetzbarkeit von RIP enorm ein. Die Netzwerke, in denen RIP eingesetzt wird, können nicht beliebig wachsen, da die maximale Größe des Netzwerks auf eine relativ kleine Distanz zwischen den Routern begrenzt ist, um die Dauer und die Folgen des CTI-Problems im Falle des Auftretens gering zu halten. Je stärker auch die Topologie eines Netzwerks vermascht ist, um mit zusätzlichen, alternativen Verbindungen Ausfällen entgegenzuwirken, umso stärker steigt auch die Gefahr des Auftretens des CTI-Problems nach einem Ausfall. Bislang existierten für RIP lediglich Mechanismen, die das Risiko des Auftretens und die Auswirkungen des CTI-Problems verringern, das Problem selbst aber nicht beheben können. Mit "RIP with minimal topology information" (RIP-MTI) wurde in der AG Rechnernetze an der Universität Koblenz-Landau eine abwärtskompatible Erweiterung zu RIP geschaffen, die das CTI-Problem zu beheben verspricht. Der RIP-MTI-Algorithmus sammelt zusätzliche Informationen über die Topologie des Netzwerks und nutzt diese, um nach dem Ausfall einer Verbindung richtige Informationen über die Erreichbarkeit von Zielen von falschen Informationen unterscheiden zu können. In dieser Diplomarbeit wird die Implementierung des RIP-MTI-Algorithmus behandelt. Mit Hilfe der speziell entwickelten RIP-Netzwerk-Testumgebung XTPeer, in der das CTI-Problem kontrolliert provoziert werden kann, wird die Wirksamkeit der Implementierung eines Quagga RIP-MTI-Routers überprüft und entsprechend weiterentwickelt. Dafür wird der RIP-MTI-Algorithmus an die Implementierung des Quagga RIP-Routing-Software sowie an die der Netzwerk-Testumgebung XTPeer angepasst. Diese Diplomarbeit wird vom Autor selbst als fortgeschrittene Zwischenstation eingestuft, vor der Herstellung und Herausgabe der Implementierung einer RIP-MTI-Routing-Software, die auch in produktiven Netzwerken eingesetzt werden könnte.
"MoleARlert" entstand im Rahmen eines Projektpraktikums der AG Computergrafik, unter Leitung Herrn Prof. Müllers und Herrn Dipl.-Inf. Stefan Rilling, im Wintersemester 2008/2009. Das System wurde von insgesamt zwölf Studierenden der Universität Koblenz-Landau entwickelt. Inhalt dieser Studienarbeit ist neben der Beschreibung des Systems vor allem die Veränderungen, die vom Autor nach Abschluss des Projektpraktikums, an diesem vorgenommen wurden unter besonderer Berücksichtigung der Neu- und Weiterentwicklungen die dazu führten die Reife des Systems zu verbessern. Ein weiterer wichtiger Aspekt der Arbeit ist die Einbindung einer Webkamera in eine 3D-Engine in Echtzeit.
Workflows und Logik
(2009)
In dieser Arbeit wurde gezeigt, wie die Netzdarstellung eines Workflows in eine aktionslogische, prädikatenlogische, transaktionslogische oder aktionslogische Formel umgeformt werden kann. Ebenso wurde der umgekehrte Weg beschrieben. So ist es jetzt möglich, Workflows auch mit Hilfe der verschiedenen Inferenztechniken der einzelnen Logiken zu untersuchen. Bei der Transformation wurden allerdings einige Einschränkungen getroffen. So wurde auf die Transformation von Quantoren sowie auf Zykel in den zu transformierenden Workflow-Netzen verzichtet. Außerdem wurden die möglichen Kantenlabels von pr/t-Netzen zur Umwandlung in eine prädikatenlogische Darstellung auf einzelne Tupel beschränkt.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
Im Rahmen dieser Arbeit wurden die zeitbewerteten Prädikat/Transitions-Netze (Z-Pr/T-Netze) zur Modellierung, Simulation und Verifikation sicherheitskritischer Echtzeitsysteme entwickelt. Z-Pr/T-Netze integrieren Konzepte zur Modellierung temporärer Zusammenhänge und sind darüber hinaus mittels der Berechnung von S- und T-Invarianten sowie der Identifikation von Traps und Co-Traps strukturell analysierbar. Die Eignung von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme wird anhand des Earliest-Deadline-First-Protokolls (EDF) und des Priority-Inheritance-Protokolls (PIP) belegt. Es erfolgt daher eine Modellierung des EDF und PIP mittels Z-Pr/T-Netzen sowie eine Verifikation für das EDF und PIP basierend auf der strukturellen Analyse der korrespondierenden Z-Pr/T-Netze. Die Anwendbarkeit struktureller Analyseverfahren zur Verifikation des EDF und PIP in Verbindung mit der nicht zu unterschätzenden Komplexität eben dieser belegen die Anwendbarkeit von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme.
Der an der Universität Koblenz-Landau entwickelte RIP-MTI-Algorithmus stellt eine Modifikation des Routingalgorithmus RIP dar, die es dem RIP-Algorithmus ermöglichen soll, die Häufigkeit des Auftretens des Counting-to-infinity-Problems (CTI) zu reduzieren. Um die Korrektheit und Zuverlässigkeit dieses Algorithmus nachweisen, aber auch Schwächen aufdecken zu können, bedarf es der Möglichkeit, das Verhalten des Algorithmus zu testen. Ziel der Arbeit ist die Nutzbarmachung der von unter VNUML laufenden RIP-Routern dezentral verwalteten Routing-Informationen, um die Entstehung von CTIs zentral protokollieren und analysieren zu können. Zu diesem Zweck wird eine Software entwickelt, die Informationen zur Netzkonfiguration, zu Erreichbarkeiten und Update-Aufkommen sammelt, verwaltet und analysiert. So können neben den bereits bekannten problematischen Netztopologien weitere für die einzelnen RIP-Ausprägungen problematische Topologien ermittelt werden.
Zufriedenheitsstudie der Studierenden des FB 4 an der Universität Koblenz-Landau am Campus Koblenz
(2009)
Nachdem der Studiengang Informationsmanagement im Jahr 2000 am Campus Koblenz der Universität Koblenz-Landau als erster deutscher Studiengang im Bachelorsystem akkreditiert wurde, haben sich im Laufe der Zeit einige Dinge verändert. Dies führte zu einer Änderung der Prüfungsordnung im Jahre 2006. Hieraus ergaben sich einige Umstellungen im Studiengang Informationsmanagement. Da im Zuge des Bolognaprozesses auch die Studiengänge Informatik und Computervisualistik in das neue System gewandelt wurden, stellten sich auch hier die Studienbedingungen um. In den letzten Jahren ist es vermehrt dazu gekommen, dass die Studierenden des Fachbereichs Informatik (im weiteren auch Fachbereich 4, oder FB 4) unzufrieden mit der augenblicklichen Situation am Campus Koblenz sind. Diese Unzufriedenheit scheint auf unterschiedlichen Ursachen zu beruhen. Da eine Unzufriedenheit innerhalb der Studierenden ein negatives Bild darstellt, ist es für eine Universität wünschenswert, wenn die Lehrenden eines Fachbereichs wissen, welche Einschätzungen die Studierenden hinsichtlich Ihres Studienfachs haben. Daher ist es von hoher Bedeutung, im Sinne der Qualitätssicherung, die Meinungen der Studenten über das Lehrkonzept sowie die einzelnen Studienfächer des Fachbereichs 4 am Campus Koblenz der Universität Koblenz-Landau zu evaluieren. Durch die Befragung der Studierenden kann somit eine Ergänzung zu der seit einiger Zeit durchgeführten Lehrveranstaltungsevaluation gebildet werden. Ziel dieser Arbeit ist es, das Meinungsbild im Fachbereich Informatik an der Universität Koblenz-Landau am Campus Koblenz zu ergründen. Anhand der Ergebnisse der Evaluation, welche im Wesentlichen von den Erfahrungen und Meinungen der Studierenden abhängig sind, können weiterführende Kenntnisse zur Verbesserung und Sicherung der Qualität von Studium und Lehre erlangt werden. Auf diese Weise erhält der Fachbereich Informatik den Stand des wahrgenommenen Profils nach außen und kann somit überprüfen, ob dieses mit den selbstgesetzten Zielvorstellungen übereinstimmt. Die Evaluation soll außerdem dazu beitragen, die eigenen Stärken und Schwächen hinsichtlich der Lehrveranstaltungen und Studiengänge zu erarbeiten sowie den Lehr- und Studien-betrieb transparenter zu gestalten. Durch diese Ergebnisse kann der Studienablauf optimiert und eine Basis für die Weiterentwicklung der Lehre geschaffen werden. Ebenfalls gilt es eventuelle Unterschiede in der Wahrnehmung der Studiensituation einzelner Studiengänge zu ermitteln, da durch verschiedene Ausrichtungen der Studierenden andere Meinungen hinsichtlich des Lehrbetriebs entstehen können. Des Weiteren gilt es dieses Meinungsbild auch innerhalb der Studiengänge zu differenzieren, damit die verschiedenen Abschlüsse, für welche die Studierenden eingeschrieben sind, herausgefiltert werden können. Ein weiterer Punkt den eine solche Evaluation mit sich führt, ist die Chance, die eigenen Kontrollmechanismen zu überprüfen und zu verbessern, damit Strategien entwickelt werden können, um die oben erwähnte Qualität der Lehre zu sichern. Somit soll neben der Darstellung der aktuellen Situation auch eine Handlungsempfehlung für den Fachbereich 4 erarbeitet werden. Die entstandene Umfrage soll so ausgelegt werden, damit weitere Befragungen im Sinne einer Panelforschung in Folgesemestern durchgeführt werden können. Hiermit soll festgestellt werden, ob sich im Laufe der Zeit Veränderungen zwischen den einzelnen Umfragen ergeben haben.
Einige akademische Arbeiten behaupten, dass Software, die in einem offenen Prozess erstellt wurde, strukturierter ist, als Programme, die im geschlossenen Umfeld entstanden sind. Die Rede ist hier von Open Source und Closed Source. Der Nachweis dieser Annahme wird mit der Technik der so genannten Design Structure Matrix (DSM) erbracht. DSM erlauben die Visualisierung der Struktur einer Software und ermöglichen das Berechnen von Metriken, mit denen dann der Level an Modularität der einzelnen Open Source Software (OSS) verglichen werden kann. Unter zu Hilfename dieser Technik geht die Diplomarbeit der Frage nach, ob ein Zusammenhang zwischen Geschäftsmodell und OSS existiert.