004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (5)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (202)
- Mehrsprachig (3)
Gehört zur Bibliographie
- nein (751) (entfernen)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
- Java (7)
- Software Engineering (7)
- Visualisierung (7)
- Simulation (6)
- Android (5)
- Datenschutz (5)
- Evaluation (5)
- GPGPU (5)
- Interaktion (5)
- Mustererkennung (5)
- Netzwerk (5)
- Objektverfolgung (5)
- Petri-Netze (5)
- Programmierung (5)
- Shader (5)
- Volumen-Rendering (5)
- Volumendaten (5)
- ontology (5)
- Bluetooth (4)
- Business Intelligence (4)
- Computergrafik (4)
- E-KRHyper (4)
- E-Learning (4)
- E-Partizipation (4)
- Enterprise 2.0 (4)
- GPU (4)
- Graphik (4)
- Information Retrieval (4)
- Knowledge Compilation (4)
- Logistik (4)
- OWL (4)
- OWL <Informatik> (4)
- Ontologie <Wissensverarbeitung> (4)
- Ontology (4)
- RIP-MTI (4)
- Rechnernetz (4)
- Router (4)
- SPARQL (4)
- Smartphone (4)
- Software (4)
- Supply Chain Management (4)
- Tracking (4)
- UML (4)
- VNUML (4)
- VOXEL (4)
- Wiki (4)
- XML (4)
- computer clusters (4)
- API (3)
- Analyse durch Synthese (3)
- Android <Systemplattform> (3)
- Augenbewegung (3)
- BPMN (3)
- C++ (3)
- Compute Shader (3)
- Computeranimation (3)
- Computervisualistik (3)
- Datenanalyse (3)
- Datenaustausch (3)
- Echtzeitsystem (3)
- Echtzeitsysteme (3)
- Fahrzeug (3)
- GPS (3)
- Globale Beleuchtung (3)
- Grafikkarte (3)
- Instant Messaging (3)
- Internet (3)
- Kamera (3)
- Markerloses Tracking (3)
- Mikrocontroller (3)
- Mikrocontroller AVR (3)
- Modellbasiertes Tracking (3)
- Netzwerksimulation (3)
- Ontologie (3)
- OpenGL Shading Language (3)
- Prozessmanagement (3)
- Ray tracing (3)
- Raytracing (3)
- Rechnernetze (3)
- Rettungsroboter (3)
- Segmentierung (3)
- Spiel (3)
- Stereosehen (3)
- TGraph (3)
- Transferfunktion (3)
- University (3)
- Wikipedia (3)
- World of Warcraft (3)
- XTPeer (3)
- classification (3)
- interaktiv (3)
- model-based (3)
- parallel algorithms (3)
- 3D (2)
- Abduktion <Logik> (2)
- Akkreditierung (2)
- Akzeptanz (2)
- Annotation (2)
- App (2)
- Applikation (2)
- Automatische Klassifikation (2)
- Automatisches Beweisverfahren (2)
- Autonome Fahrzeuge (2)
- Autonomes Robotersystem (2)
- Beschaffung (2)
- Bild (2)
- Bildregistrierung (2)
- Browser (2)
- CSCW (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer (2)
- Computer Graphics (2)
- Computer Supported Cooperative Work (2)
- Computertomografie (2)
- Content Management (2)
- Crowdsourcing (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- DTI (2)
- Data Mining (2)
- Datensicherheit (2)
- Delta (2)
- Digital Rights Management (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- Dokumentation (2)
- E-IMS (2)
- E-Mail (2)
- E-participation (2)
- Eclipse <Programmierumgebung> (2)
- Electronic Government (2)
- Enhanced Reality (2)
- Entwicklung (2)
- Equality (2)
- Erweiterte Realität (2)
- Eyetracking (2)
- Fahrerassistenzsystem (2)
- Fallstudie (2)
- Formale Ontologie (2)
- Framework (2)
- Frau (2)
- GLSL (2)
- Gaze Tracker (2)
- Geschäftsprozess (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Grafikprozessor (2)
- Graphikprozessor (2)
- High dynamic Range (2)
- IBM Lotus Quickr (2)
- IPv6 (2)
- Information Flow Ontology (2)
- Informationsmanagement (2)
- Informationssystem (2)
- Informationsvisualisierung (2)
- Innovationsmanagement (2)
- Internetzugang (2)
- Interoperabilität (2)
- JGraLab (2)
- Kalibrierung (2)
- Klassifikation (2)
- Kollaboration (2)
- Konvergenz (2)
- Kryptographie (2)
- Künstliche Intelligenz (2)
- Laser (2)
- Laserscanner (2)
- Line Space (2)
- Linked Open Data (2)
- Maschinelles Lernen (2)
- Medizinische Visualisierung (2)
- Metriken (2)
- Modell (2)
- Modellfahrzeug (2)
- Modellgetriebene Entwicklung (2)
- Modellierung (2)
- Modelltransformation (2)
- Navigation (2)
- Network (2)
- Netzwerkmanagement (2)
- Neuronales Netz (2)
- Online-Befragung (2)
- Open Source (2)
- Partikelsystem (2)
- Personalausweis (2)
- Petri Nets (2)
- Petri-Netz (2)
- Program Slicing (2)
- Propagation (2)
- Prädikatenlogik (2)
- Qualität (2)
- RDF (2)
- RDF <Informatik> (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Reengineering (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Roboter (2)
- Rollenspiel (2)
- Routing Information Protocol (2)
- Schatten (2)
- Schlussfolgern (2)
- Security (2)
- Selbstlokalisation (2)
- Semantic Desktop (2)
- Semantik (2)
- Serviceorientierte Architektur (2)
- Sicherheit (2)
- Softwareentwicklung (2)
- Softwaretest (2)
- Spielkonsole (2)
- SpoGA (2)
- Starrkörper (2)
- Steuerung (2)
- Tablet PC (2)
- Textur-Mapping (2)
- Theorem Proving (2)
- Transform Feedback (2)
- Transformation (2)
- Umfrage (2)
- Universität Koblenz-Landau (2)
- Usability (2)
- Usage Rights Management (2)
- Virtualisierung (2)
- Virtuelle Realität (2)
- Virtuelle Welt (2)
- Volumen (2)
- Volumenrendering (2)
- WLAN (2)
- Wasseroberfläche (2)
- Web 2.0 (2)
- Web Analytics (2)
- Web Services (2)
- WebGL (2)
- Webcam (2)
- Werbung (2)
- Wii (2)
- Wiimote (2)
- Wissensmanagement (2)
- World Wide Web 2.0 (2)
- Zielverfolgung (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- computer science (2)
- constraint logic programming (2)
- eGovernment (2)
- game (2)
- governance (2)
- hybrid automata (2)
- image processing (2)
- information system (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- probability propagation nets (2)
- security (2)
- semantics (2)
- simulation (2)
- social media (2)
- social simulation (2)
- visualization (2)
- 101companies (1)
- 2-D (1)
- 2019 European Parliament Election (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-Modelle (1)
- 3D-RETISEG (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- 8C model (1)
- ABox (1)
- AMIRE (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- ARIS (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- AUTOSAR (1)
- Abfragesprache (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Ad-Hoc Routing (1)
- Adaptation (1)
- Adaptive Abtastung (1)
- Adaptive Services Grid (ASG) (1)
- Administration (1)
- Adobe Flash (1)
- Adobe Flex (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Agent (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Algolib (1)
- Algorithm Engineering (1)
- Algorithmus (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Analyse (1)
- Analyse-durch-Synthese (1)
- Analysis of social platform (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Anhängerfahrzeug (1)
- Animationsverfahren (1)
- Annotationsmodell (1)
- Anpassung (1)
- Anwendungsintegration (1)
- Anwendungssoftware (1)
- Anzeige (1)
- App <Programm> (1)
- ArcGIS (1)
- Architektur <Informatik> (1)
- Architekturbewertung (1)
- Archivierung (1)
- Articles for Deletion (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Association Rules (1)
- Audiodatei (1)
- Auditing (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Auslese (1)
- Ausrichtungswerkzeug (1)
- Aussagenlogik (1)
- Ausstellung (1)
- Austausch (1)
- Auswahl (1)
- Auszeichnungssprache (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automotive Systems (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomes Fahrzeug (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Avatar (1)
- Avatare (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- B2B Integration (1)
- BGV A1 (1)
- BI (1)
- BPM (1)
- BPMS (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Backtrack (1)
- Balanced Scorecard (1)
- Balancetheorie (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Benutzerverhalten (1)
- Beschleunigungsensor (1)
- Beschreibungslogik (1)
- Besuchersoftware (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsegmentierung (1)
- Bildsensor (1)
- Bildverstehen (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biometric Authentication (1)
- Biometrie (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blinder Fleck (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Bordinstrument (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Burg (1)
- Business Collaboration (1)
- Business Continuity Management (1)
- Business Process Modeling (1)
- Business Software (1)
- Business intelligence (1)
- Bürgerbeiteiligung (1)
- C-Programmierung (1)
- C-Socketbibliothek (1)
- CAD (1)
- CAD-System (1)
- CB2 (1)
- CIDR (1)
- CMS (1)
- CSCA (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Cascada (1)
- Casual Game (1)
- Casual Games (1)
- Cg (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Cheops (1)
- Chiffrierung (1)
- Cicero (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Classification (1)
- Closed Source (1)
- Clusteranalyse (1)
- Clustering (1)
- CodeBlue (1)
- Cold Chain (1)
- CollaborativeWriting (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Coloskopie (1)
- Common Annotation Framework (1)
- Communication Networks (1)
- Communication System (1)
- Computational biology (1)
- Computational logic (1)
- Compute-Shader (1)
- Computer Networks (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersicherheit (1)
- Computerspiele (1)
- Computertomographie (1)
- Conference (1)
- Congestion Control (1)
- Constitutive Model (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Context-aware processes (1)
- Controlling (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Corruption (1)
- CosiMail (1)
- Counting-to-Infinity (1)
- Creativity (1)
- Criteria Matrix (1)
- DCMTK (1)
- DEMO_net (1)
- DHCPv6 (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- DPLL procedure (1)
- Darmpolyp (1)
- Darmspiegelung (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data analysis (1)
- Data compression (1)
- Data flow analysis (1)
- Data manipulation (1)
- Data protection (1)
- Data-Mining (1)
- Data-Warehouse-Konzept (1)
- Datenaustauschstandard (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenkompression (1)
- Datenschutzpolicy (1)
- Datenstruktur (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Demoskopie (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Design Thinking (1)
- Designwerkzeug (1)
- Desktop (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diagramm (1)
- Diffie-Hellman-Algorithmus (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digital Storytelling (1)
- Digitale Bibliothek (1)
- Digitale Bilder (1)
- Digitale Steuerung (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Disaster Recovery (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Displacement Mapping (1)
- Display (1)
- Distanz-Vektor (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Distribution <Linguistik> (1)
- Drahtloses Sensorsystem (1)
- Drahtloses lokales Netz (1)
- Drahtmodell (1)
- Dreidimensionale Bildverarbeitung (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- Dynamische Programmierung (1)
- E-Business (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-Government (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEG (1)
- EEPROM (1)
- EMIL-S (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU (1)
- EU-Dienstleistungsrichtlinie (1)
- Echtzeit Anwendung (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Echtzeitphysik (1)
- Eclipse (1)
- Ecore (1)
- Einchip-Computer (1)
- Einkauf (1)
- Einstellung (1)
- Electronic Commerce (1)
- Elektrischer Servomotor (1)
- Elektroencephalographie (1)
- Elektronische Bibliothek (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Empirische Sozialforschung (1)
- Emulation (1)
- Enhanced Representation (1)
- Enterprise Architect (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Information Management (1)
- Enterprise Resource Planning (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entropia Universe (1)
- Entscheidungsprozess (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Entwurfssprache (1)
- Epipolargeometrie (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- Erstgebärende (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Binnenmarkt (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Event (1)
- Experiment (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extension (1)
- Eye Tracking (1)
- Eye-Tracking (1)
- FPIC (1)
- Fabric Simulation (1)
- Facebook App (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fahrerassistenzsysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fahrverhalten (1)
- Fahrzeugverhalten (1)
- Faktorenanalyse (1)
- Farbbildverarbeitung (1)
- Farbenlehre (1)
- Farbkalibrierung (1)
- Farbsymmetrie (1)
- Farbtheorie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fedora (1)
- Fehlerbaum (1)
- Fehlerverhütung (1)
- Fernsehtechnik (1)
- Fertilitaet (1)
- Feuer (1)
- Fiber Tracking (1)
- Field programmable gate array (1)
- Finanzberatung (1)
- Fingerprint Recognition (1)
- Fire (1)
- Firewall (1)
- First aid (1)
- FlexViz (1)
- Fließgewässer (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Foils <Programm> (1)
- Food Transportation System (1)
- Foodstuff (1)
- Forensik (1)
- Formal Methods (1)
- Formale Methoden (1)
- Forschungslandkarte (1)
- Fotoauswahl (1)
- Fourier (1)
- Fracturing (1)
- Fragebeantwortung (1)
- Fragmentshader (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Freiheitsgrad (1)
- Fresnel (1)
- Function Words (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- Funktionelle NMR-Tomographie (1)
- Föderiertes System (1)
- GDPR (1)
- GDS (1)
- GIRT (1)
- GMI-Controlling (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- GReQL2 (1)
- GReTL (1)
- GSM-Standard (1)
- GUPRO (1)
- Game Design (1)
- Gaps (1)
- Gaze-Tracking (1)
- GazeTheWeb (1)
- Geburt (1)
- Geburtshaus (1)
- Gebäudemodelle (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Geländemodell (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Geodaten (1)
- Geoinformation (1)
- Geometrie-Shader (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Gerichteter Graph (1)
- Germany (1)
- Gerstner (1)
- Geschäftsmodell (1)
- Geschäftsmodellinnovation (1)
- Geschäftsprozessmodell (1)
- Geschäftsprozessmodellierung (1)
- Gespann (1)
- Geste (1)
- Gesteninterpretation (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gradientenanalyse (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph (1)
- Graph Technology (1)
- GraphUML (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grounded Theory (1)
- Grundschule (1)
- Gruppenarbeit (1)
- Gupro (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HNF-Algorithmus (1)
- HTML 5.0 (1)
- Halbschatten (1)
- Hand-based Gestures (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Haskell (1)
- Hausgeburt (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Healthcare institution (1)
- Hebamme (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Herzerkrankungen (1)
- Heuristiken (1)
- High-Traffic (1)
- Hindernis (1)
- Historisierung (1)
- Hochgeschwindigkeitstracking (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hyperspace-Modell (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IK-Algorithmus (1)
- IM-Systeme (1)
- IP 6 (1)
- IP-Adressen (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Imitation Learning (1)
- InFO (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Inflation (1)
- Infobroker (1)
- Information (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Supply Chain (1)
- Information Visualization (1)
- Information system (1)
- Information-Retrieval (1)
- Informationsmanagementsystem (1)
- Informationsverlinkung (1)
- Informetrie (1)
- Innovation (1)
- Inpainting-Verfahren (1)
- Integration (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Interactive Visualizations (1)
- Interaktionselemente (1)
- Interaktive Visualisierungen (1)
- Interaktives Fernsehen (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- Internet Voting (1)
- Internet of Things (1)
- Internetregulierung (1)
- Internetworking (1)
- Interoperability (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraph (1)
- JML (1)
- Jabber (1)
- Jabber <Programm> (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java-Quelltext (1)
- Java. Programmiersprache (1)
- JavaScript (1)
- Join (1)
- Jump'n Run-Spiel (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- KRHyper (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kamerakalibrierung (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kinect (1)
- Kinematik (1)
- Kirk-Coleman-Modell (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Kletterer (1)
- Knowledge (1)
- Knowledge Graph (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kohärenzanalyse (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Konturfindung (1)
- Konzept (1)
- Kookkurrenz (1)
- Kooperatives Informationssystem (1)
- Korruption (1)
- Korrutionsprävention (1)
- Kraftfahrzeug (1)
- Krankenhausinformationssystem (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Kundenmanagement (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Lastenheft (1)
- Latent Negative (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lebensmittelallergie (1)
- Lehrer (1)
- Leichte Sprache (1)
- Leistungsmessung (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernen (1)
- Lernsoftware (1)
- Lernspiel (1)
- Lernumgebung (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linespace (1)
- Linienkorrelationen (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Linking of Information (1)
- Linux (1)
- Literaturrecherche (1)
- Logging (1)
- Logik (1)
- Logischer Schluss (1)
- Lokale Bildmerkmale (1)
- Lokalisation (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- MIA (1)
- MMORPG (1)
- MP3 Player (1)
- MPEG-7 (1)
- MTASC (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Mann-Whitney (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Matching (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Maya (1)
- MeVisLab (1)
- Media Asset Management (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Mehrprozessorsystem (1)
- Mensch-Maschine-Interaktion (1)
- Mensch-Maschine-Schnittstelle (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsbewertung (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Metamodel (1)
- Metric based Icp (1)
- Micro Finance (1)
- Migration (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mikrozensus (1)
- Mind Maps (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Information Systems (1)
- Mobile Kommunikation (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- MobileFacets System (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modellieren (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Moderierte Diskussionen (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Modulnetze (1)
- Monitoring (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimediale Assets (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- Multivariate Datenanalyse (1)
- Musteranalyse (1)
- Myokard (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NPO (1)
- NURBS (1)
- Nagios (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Network Virtualization (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerk Protokollen (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Netzwerküberwachung (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nonprofit-Organisation (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- Nvidia CUDA (1)
- OCL <Programmiersprache> (1)
- OCR (1)
- ODRL (1)
- ODRLv2 (1)
- OGRE (1)
- ONDEX (1)
- OPNET (1)
- OSS (1)
- OVTK (1)
- OWL-DL (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Object Recognition (1)
- Objective-C (1)
- Objektentfernung (1)
- Objekterkennung (1)
- Octree Textur (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinesucht (1)
- Onlinewahl (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- Open Digital Rights Language (1)
- Open Source 3D Graphics Engine (1)
- Open Source Software (1)
- OpenCL (1)
- OpenVDB (1)
- OpenWrt (1)
- Opinion mining (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Optisches Mikroskop (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- PDA (1)
- PEPPOL (1)
- PHP (1)
- POIs (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Pan European Public Procurement OnLine (1)
- Par (1)
- Parallelmanipulator (1)
- Partikel (1)
- Partikelsimulation (1)
- Partizipation (1)
- Path Tracing (1)
- Path transformation (1)
- Perinatalbogen (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Petri net (1)
- Petri-Netz-Theorie (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadtransformation (1)
- Pfadverfolgung (1)
- Pflichtenheft (1)
- Phantom Omni (1)
- Photographie (1)
- Physik (1)
- Physikengine (1)
- Physiksimulation (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Plug in (1)
- Plugin (1)
- Point Rendering (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Pollenanalyse (1)
- Polypendetektion (1)
- Pose (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Potenzialfeld (1)
- Power Law (1)
- Pre-Integration (1)
- Preisbildung (1)
- Prevention (1)
- Primus (1)
- Privacy (1)
- Privatvermögen (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programm (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propositional Logic (1)
- Protocol (1)
- Prototyp (1)
- Prototype (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Präsentation (1)
- Prävention (1)
- Psychohygiene (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Punktkorrelationen (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Quality assessment system (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- Query Expansion (1)
- RCP (1)
- RDF Graphs (1)
- RDF modeling (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- RIPng (1)
- RMIS (1)
- Radiales System (1)
- Radiosity (1)
- Random Finite Sets (1)
- Rangtest (1)
- Ray Tracer (1)
- Ray casting (1)
- Ray-Casting (1)
- ReDSeeDS-Project (1)
- ReMiP (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Rechtemanagement (1)
- Recommender System (1)
- Reddit (1)
- Referenzmetamodell (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Regionenlabeling (1)
- Register (1)
- Registratur (1)
- Regler (1)
- Regression (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Relationales Datenbanksystem (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Repast (1)
- Requirement-Engineering (1)
- Requirements-Engineering (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Restrukturierung (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Reverse Engineering (1)
- Rich Internet Application (1)
- Risikomanagement-Informationssysteme (1)
- Risk (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robbie (1)
- Robert P. Abelson (1)
- RoboCup (1)
- RoboCup Rescue (1)
- Robocup 2008 (1)
- Robotersystem (1)
- Route Aggregation (1)
- Route Planning (1)
- Routen-Aggregation (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing information protocol (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Routing- und Forwarding Tabellen (1)
- Routing-Loop (1)
- RuneScape (1)
- Rückfahrkamera (1)
- Rückverfolgbarkeit (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SNMP (1)
- SOA (1)
- SOA-Webservice (1)
- SOAMIG (1)
- SOMA (1)
- STOF Model (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- SVG (1)
- Sales Ageny (1)
- Sand (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Scanmatching (1)
- Schema Information (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schnelle Faltung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Search engine (1)
- Second Life (1)
- Security Routing (1)
- Segmentation (1)
- Semantic Data (1)
- Semantics (1)
- Semantisches Wiki (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Serviceroboter (1)
- Sesame (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Shattering (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheit Routing (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Simulationswerkzeug (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Smartphone Applikation (1)
- SocSimNet (1)
- Social Games (1)
- Social Networking Platforms (1)
- Social Software (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software- Ergonomie (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwaremodellierung (1)
- Softwarespezifikation (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziale Netzwerke (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Sozialwissenschaftliche Simulation (1)
- Soziooekonomisches Panel (1)
- Spam-Mail (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spektrale Bildgewinnung (1)
- Spezifikation (1)
- Spieleentwicklung (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- Staat (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Statische Analyse (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Statistische Analyse (1)
- Staukontrollmechanismen (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Stewart-Plattform (1)
- Stilisierung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Stomp (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Suchmaschine (1)
- Supernetting (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Systembiologie (1)
- Szeneneditor (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- TGraphen (1)
- TQM (1)
- TRECVID (1)
- TRIZ (1)
- Tableau <Logik> (1)
- Tableau Calculus (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tarrain Klassifikation (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Taxonomie (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Technologischer Raum (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Temporale Datenhaltung (1)
- Tenneco Automotive (1)
- Tesseract (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Textur (1)
- Texturierung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tokens (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Tool Evaluation (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tourismus (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Trackingsystem (1)
- Trajektorien (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transfer function (1)
- Transferfunction (1)
- Translation (1)
- Transport (1)
- Transportschicht (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- Type System (1)
- Type system (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- USARSim (1)
- USB (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Unified Modeling Language (UML ) (1)
- Uniforme Raumunterteilung (1)
- United Internet AG (1)
- Universitäre Lehrveranstaltung (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Unternehmensnetzwerke (1)
- Unterricht (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- User Interface (1)
- VCD (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VIACOBI (1)
- VLAN (1)
- VST (1)
- VTP (1)
- Validierung (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verbraucherforschung (1)
- Verifikation (1)
- Verortung (1)
- Verteilte Systeme (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Verwaltungsautomation (1)
- Video (1)
- Video-Installation (1)
- Videospiel (1)
- Videospiele (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Company Dossier (1)
- Virtual Networks (1)
- Virtual Square (1)
- Virtual characters (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtuelle Menschen (1)
- Virtuelle Welten (1)
- Virtuelle Ökonomien (1)
- Virtueller Raum (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Odometrie (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volume Raycasting (1)
- Volume Rendering (1)
- Volumenmodell (1)
- Volumenvisualisierung (1)
- Vorbeugung (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- W-LAN (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Water Surface Temperature (1)
- Wavelet (1)
- Web (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Weblog (1)
- Webseiten (1)
- Webserver (1)
- Webservice Sail (1)
- Website (1)
- Wechselkursänderung (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Wellen (1)
- Werbeform (1)
- Wertschöpfungskette (1)
- Whiteboard (1)
- WiFi Fingerprinting (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wilcoxon-Rangsummentest (1)
- Wireless Sensor Networks (1)
- Wireshark (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissenskompilation (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Word-of-Mouth (1)
- Workflow (1)
- World Wide Web (1)
- Wrapping (1)
- X-Cosim (1)
- XML-Dokument (1)
- XMPP (1)
- XSD (1)
- XTpeer (1)
- Xcode (1)
- YAWL (1)
- You-messages (1)
- Zerbrechen (1)
- Zertifikat (1)
- Zirkumskription (1)
- Zufriedenheit (1)
- Zukunftsszenario (1)
- accelerometer (1)
- acceptance (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- advertisements (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- android (1)
- application programming interfaces (1)
- archiving (1)
- area light (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- attitude (1)
- augmented reality (1)
- automated theorem prover (1)
- automatisierte Videoüberwachung (1)
- bachelor (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- categorisation (1)
- co-occurrence (1)
- collaboration (1)
- collaborative technologies (1)
- color image processing (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- convergence analysis (1)
- core ontologies (1)
- crowd evacuation (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- data-mining (1)
- deductive (1)
- depth map (1)
- description logic (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- diagram (1)
- diffusion (1)
- digital library (1)
- directed acyclic graphs (1)
- disparity map (1)
- distinct object identifiers (1)
- distributed information systems (1)
- dreidimensionale Computergraphik (1)
- dynamic programming (1)
- e-Commerce (1)
- e-ID (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- ediv (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- engine (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation (1)
- event (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- experiment (1)
- eye tracking (1)
- faceted search (1)
- factor analysis (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- general purpose (1)
- geometry shader (1)
- grUML (1)
- gradient method of training weight coefficients (1)
- graphics card (1)
- grassland (1)
- groupwork (1)
- high-traffic (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- iSearch (1)
- id card (1)
- image semantics (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- information retrieval (1)
- interaction (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jOWL (1)
- java (1)
- jump'n run game (1)
- keystroke biometric recognition (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- landmarks (1)
- legacy software (1)
- line space (1)
- lineare Algebra (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mann-whitney (1)
- markerless tracking (1)
- master (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- methodology (1)
- metrics (1)
- micro-agent (1)
- midwife (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model (1)
- model generation (1)
- model-driven engineering (1)
- modellgetriebene Softwareentwicklung (1)
- modulares System (1)
- module handbook (1)
- morphological operators (1)
- movement (1)
- multiagent systems (1)
- multidimensional (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- multiprocessing (1)
- myAnnotations (1)
- nPA (1)
- natural language generation (1)
- natural language processing (1)
- natürliche Sprache (1)
- networks (1)
- neural (1)
- nichtamtliche Haushaltsbefragungen (1)
- octree texture (1)
- official household surveys (1)
- online survey (1)
- out-of-hospital birth (1)
- parallel calculations (1)
- parallel computing (1)
- path planning (1)
- perinatal (1)
- person (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- physical interaction (1)
- physics (1)
- physische Interaktion (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- pregnancy (1)
- privacy (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- projektives Malen (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- quality assurance (1)
- question answering (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- real-time computing (1)
- realtime physics (1)
- recurrent (1)
- reference meta model (1)
- reflection (1)
- refraction (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- relativity (1)
- requirements analysis (1)
- retina fundus images (1)
- revenue management (1)
- rich multimedia presentations (1)
- rigid body (1)
- rip (1)
- risk (1)
- rmti (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- search engine (1)
- security requirements (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sensor control (1)
- sequent calculi (1)
- shader (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- soft shadow (1)
- software engineering (1)
- stereo vision (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- survey in Koblenz (1)
- syntaktische Analyse (1)
- tag recommendation (1)
- tagging (1)
- taxonomy (1)
- texturing (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transform feedback (1)
- transformation (1)
- travel document (1)
- unique name assumption (1)
- unofficial household surveys (1)
- usability study (1)
- usage-mining (1)
- vegetation modeling (1)
- verification (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtual human (1)
- virtual network user mode linux (1)
- virtuelle Netze (1)
- vnuml (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
- xtpeer (1)
- Öffentliche Verwaltung (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (221)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
Leichte Sprache (LS) ist eine vereinfachte Varietät des Deutschen in der barrierefreie Texte für ein breites Spektrum von Menschen, einschließlich gering literalisierten Personen mit Lernschwierigkeiten, geistigen oder entwicklungsbedingten Behinderungen (IDD) und/oder komplexen Kommunikationsbedürfnissen (CCN), bereitgestellt werden. LS-Autor*innen sind i.d.R. der deutschen Standardsprache mächtig und gehören nicht der genannten Personengruppe an. Unser Ziel ist es, diese zu befähigen, selbst am schriftlichen Diskurs teilzunehmen. Hierfür bedarf es eines speziellen Schreibsystems, dessen linguistische Unterstützung und softwareergonomische Gestaltung den spezifischen Bedürfnissen der Zielgruppe gerecht wird. EasyTalk ist ein System basierend auf computerlinguistischer Verarbeitung natürlicher Sprache (NLP) für assistives Schreiben in einer erweiterten Variante von LS (ELS). Es stellt den Nutzenden ein personalisierbares Vokabular mit individualisierbaren Kommunikationssymbolen zur Verfügung und unterstützt sie entsprechend ihres persönlichen Fähigkeitslevels durch interaktive Benutzerführung beim Schreiben. Intuitive Formulierungen für linguistische Entscheidungen minimieren das erforderliche grammatikalische Wissen für die Erstellung korrekter und kohärenter komplexer Inhalte. Einfache Dialoge kommunizieren mit einem natürlichsprachlichen Paraphrasengenerator, der kontextsensitiv Vorschläge für Satzkomponenten und korrekt flektierte Wortformen bereitstellt. Außerdem regt EasyTalk die Nutzer*innen an, Textelemente hinzuzufügen, welche die Verständlichkeit des Textes für dessen Leserschaft fördern (z.B. Zeit- und Ortsangaben) und die Textkohärenz verbessern (z.B. explizite Diskurskonnektoren). Um das System auf die Bedürfnisse der Zielgruppe zuzuschneiden, folgte die Entwicklung von EasyTalk den Grundsätzen der menschzentrierten Gestaltung (UCD). Entsprechend wurde das System in iterativen Entwicklungszyklen ausgereift, kombiniert mit gezielten Evaluierungen bestimmter Aspekte durch Gruppen von Expert*innen aus den Bereichen CCN, LS und IT sowie L2-Lernende der deutschen Sprache. Eine Fallstudie, in welcher Mitglieder der Zielgruppe das freie Schreiben mit dem System testeten, bestätigte, dass Erwachsene mit geringen Lese-, Schreib- und Computerfähigkeiten mit IDD und/oder CCN mit EasyTalk eigene persönliche Texte in ELS verfassen können. Das positive Feedback aller Tests inspiriert Langzeitstudien mit EasyTalk und die Weiterentwicklung des prototypischen Systems, wie z.B. die Implementierung einer s.g. Schreibwerkstatt.
On the recognition of human activities and the evaluation of its imitation by robotic systems
(2023)
This thesis addresses the problem of action recognition through the analysis of human motion and the benchmarking of its imitation by robotic systems.
For our action recognition related approaches, we focus on presenting approaches that generalize well across different sensor modalities. We transform multivariate signal streams from various sensors to a common image representation. The action recognition problem on sequential multivariate signal streams can then be reduced to an image classification task for which we utilize recent advances in machine learning. We demonstrate the broad applicability of our approaches formulated as a supervised classification task for action recognition, a semi-supervised classification task for one-shot action recognition, modality fusion and temporal action segmentation.
For action classification, we use an EfficientNet Convolutional Neural Network (CNN) model to classify the image representations of various data modalities. Further, we present approaches for filtering and the fusion of various modalities on a representation level. We extend the approach to be applicable for semi-supervised classification and train a metric-learning model that encodes action similarity. During training, the encoder optimizes the distances in embedding space for self-, positive- and negative-pair similarities. The resulting encoder allows estimating action similarity by calculating distances in embedding space. At training time, no action classes from the test set are used.
Graph Convolutional Network (GCN) generalized the concept of CNNs to non-Euclidean data structures and showed great success for action recognition directly operating on spatio-temporal sequences like skeleton sequences. GCNs have recently shown state-of-the-art performance for skeleton-based action recognition but are currently widely neglected as the foundation for the fusion of various sensor modalities. We propose incorporating additional modalities, like inertial measurements or RGB features, into a skeleton-graph, by proposing fusion on two different dimensionality levels. On a channel dimension, modalities are fused by introducing additional node attributes. On a spatial dimension, additional nodes are incorporated into the skeleton-graph.
Transformer models showed excellent performance in the analysis of sequential data. We formulate the temporal action segmentation task as an object detection task and use a detection transformer model on our proposed motion image representations. Experiments for our action recognition related approaches are executed on large-scale publicly available datasets. Our approaches for action recognition for various modalities, action recognition by fusion of various modalities, and one-shot action recognition demonstrate state-of-the-art results on some datasets.
Finally, we present a hybrid imitation learning benchmark. The benchmark consists of a dataset, metrics, and a simulator integration. The dataset contains RGB-D image sequences of humans performing movements and executing manipulation tasks, as well as the corresponding ground truth. The RGB-D camera is calibrated against a motion-capturing system, and the resulting sequences serve as input for imitation learning approaches. The resulting policy is then executed in the simulated environment on different robots. We propose two metrics to assess the quality of the imitation. The trajectory metric gives insights into how close the execution was to the demonstration. The effect metric describes how close the final state was reached according to the demonstration. The Simitate benchmark can improve the comparability of imitation learning approaches.
Soziale Netzwerke sind allgegenwärtige Strukturen, die wir jeden Tag generieren und bereichern, während wir uns über Plattformen der sozialen Medien, E-Mails und jede andere Art von Interaktion mit Menschen verbinden. Während diese Strukturen für uns nicht greifbar sind, sind sie sehr wichtige Informationsträger. Zum Beispiel kann die politische Neigung unserer Freunde ein Näherungswert sein, um unsere eigenen politischen Präferenzen zu identifizieren. Gleichermaßen
kann die Kreditwürdigkeit unserer Freunde entscheidend bei der Gewährung oder Ablehnung unserer eigenen Kredite sein. Diese Erklärungskraft wird bei der Gesetzgebung, bei Unternehmensentscheidungen und in der Forschung genutzt, da sie maschinellen Lerntechniken hilft, genaue Vorhersagen zu treffen. Diese Verallgemeinerungen kommen jedoch häufig nur der Mehrheit der Menschen zugute, welche die allgemeine Struktur des Netzwerks prägen, und benachteiligen unterrepräsentierte Gruppen, indem sie ihre Mittel und Möglichkeiten begrenzen. Daher ist es wichtig zuerst zu verstehen, wie sich soziale Netzwerke bilden, um dann zu überprüfen, inwieweit ihre Mechanismen der Kantenbildung dazu beitragen, soziale Ungleichheiten in Algorithmen des maschinellen Lernens zu verstärken.
Zu diesem Zweck schlage ich im ersten Teil dieser Arbeit HopRank und Janus vor, zwei Methoden um die Mechanismen der Kantenbildung in realen ungerichteten sozialen Netzwerken zu charakterisieren. HopRank ist ein Modell der Daten-Hamsterei in Netzwerken. Sein Schlüsselkonzept ist ein gezinkter zufälliger Wanderer, der auf Übergangswahrscheinlichkeiten zwischen K-Hop-Nachbarschaften basiert. Janus ist ein Bayessches Rahmenwerk, mit dem wir plausible Hypothesen der Kantenbildung in Fällen identifizieren und bewerten können, in denen Knoten zusätzliche Daten enthalten. Im zweiten Teil dieser Arbeit untersuche ich die Auswirkungen dieser Mechanismen - welche die Kantenbildung in sozialen Netzwerken erklären - auf das maschinelle Lernen. Insbesondere untersuche ich den Einfluss von Homophilie, bevorzugter Bindung, Kantendichte, Anteil von Minderheiten und der Richtung von Verbindungen sowohl auf Leistung als auch auf systematische Fehler von kollektiver Klassifizierung und auf die Sichtbarkeit von Minderheiten in Top-K-Rängen. Meine Ergebnisse zeigen eine starke Korrelation zwischen der Netzwerkstruktur und den Ergebnissen des maschinellen Lernens. Dies legt nahe, dass die systematische Diskriminierung spezieller Personen: (i) durch den Netzwerktyp vorweggenommen und (ii) durch strategisches Verbinden im Netzwerk verhindert werden kann.
In dieser Arbeit werden die Möglichkeiten der Echtzeitvisualisierung von
OpenVDB-Dateien untersucht. Die Grundlagen von OpenVDB, dessen
Möglichkeiten, und NanoVDB, der GPU-Schnittstelle, werden erforscht.
Es wird ein System entwickelt, welches PNanoVDB, die Grafik-APIPortierung
von OpenVDB, verwendet. Außerdem werden Techniken
zur Verbesserung und Beschleunigung eines Einzelstrahlansatzes zur
Strahlenverfolgung getestet und angepasst. Um eine Echtzeitfähigkeit
zu realisieren, werden zwei Einzelstreuungsansätze implementiert, von
denen einer ausgewählt, weiter untersucht und optimiert wird.
Dies ermöglicht potenziellen Nutzern eine direkte Rückmeldung über
ihre Anpassungen zu erhalten, sowie die Möglichkeit, alle Parameter zu
ändern, um einen freien Gestaltungsprozess zu gewährleisten.
Neben dem visuellen Rendering werden auch entsprechende Benchmarks
gesammelt, um verschiedene Verbesserungsansätze zu vergleichen und
deren Relevanz zu beweisen. Um eine optimale Nutzung zu erreichen,
wird auf die Rendering-Zeiten und den Speicherverbrauch auf der GPU
geachtet. Ein besonderes Augenmerk wird auf die Integrierbarkeit und
Erweiterbarkeit des Programms gelegt, um eine einfache Integration in
einen bestehenden Echtzeit-Renderer wie U-Render zu ermöglichen.
Semantic-Web-Technologien haben sich als Schlüssel für die Integration verteilter und heterogener Datenquellen im Web erwiesen, da sie die Möglichkeit bieten, typisierte Verknüpfungen zwischen Ressourcen auf dynamische Weise und nach den Prinzipien von sogenannten Dataspaces zu definieren. Die weit verbreitete Einführung dieser Technologien in den letzten Jahren führte zu einer großen Menge und Vielfalt von Datensätzen, die als maschinenlesbare RDF-Daten veröffentlicht wurden und nach ihrer Verknüpfung das sogenannte Web of Data bilden. Angesichts des großen Datenumfangs werden diese Verknüpfungen normalerweise durch Berechnungsmethoden generiert, den Inhalt von RDF-Datensätzen analysieren und die Entitäten und Schemaelemente identifizieren, die über die Verknüpfungen verbunden werden sollen. Analog zu jeder anderen Art von Daten müssen Links die Kriterien für Daten hoher Qualität erfüllen (z. B. syntaktisch und semantisch genau, konsistent, aktuell), um wirklich nützlich und leicht zu konsumieren zu sein. Trotz der Fortschritte auf dem Gebiet des maschinellen Lernens ist die menschliche Intelligenz für die Suche nach qualitativ hochwertigen Verbindungen nach wie vor von entscheidender Bedeutung: Menschen können Algorithmen trainieren, die Ausgabe von Algorithmen in Bezug auf die Leistung validieren, und auch die resultierenden Links erweitern. Allerdings sind Menschen – insbesondere erfahrene Menschen – nur begrenzt verfügbar. Daher kann die Ausweitung der Datenqualitätsmanagementprozesse von Dateneigentümern/-verlegern auf ein breiteres Publikum den Lebenszyklus des Datenqualitätsmanagements erheblich verbessern.
Die jüngsten Fortschritte bei Human Computation und bei Peer-Production-Technologien eröffneten neue Wege für Techniken zur Verwaltung von Mensch-Maschine-Daten, die es ermöglichten, Nicht-Experten in bestimmte Aufgaben einzubeziehen und Methoden für kooperative Ansätze bereitzustellen. Die in dieser Arbeit vorgestellten Forschungsarbeiten nutzen solche Technologien und untersuchen Mensch-Maschine-Methoden, die das Management der Verbindungsqualität im Semantic Web erleichtern sollen. Zunächst wird unter Berücksichtigung der Dimension der Verbindungsgenauigkeit eine Crowdsourcing Methode zur Ontology Alignment vorgestellt. Diese Methode, die auch auf Entitäten anwendbar ist, wird als Ergänzung zu automatischen Ontology Alignment implementiert. Zweitens werden neuartige Maßnahmen zur Dimension des Informationsgewinns eingeführt, die durch die Verknüpfungen erleichtert werden. Diese entropiezentrierten Maßnahmen liefern Datenmanagern Informationen darüber, inwieweit die Entitäten im verknüpften Datensatz Informationen in Bezug auf Entitätsbeschreibung, Konnektivität und Schemaheterogenität erhalten. Drittens wenden wir Wikidata - den erfolgreichsten Fall eines verknüpften Datensatzes, der von einer Gemeinschaft von Menschen und Bots kuratiert, verknüpft und verwaltet wird - als Fallstudie an und wenden deskriptive und prädiktive Data Mining-Techniken an, um die Ungleichheit der Teilnahme und den Nutzerschwung zu untersuchen. Unsere Ergebnisse und Methoden können Community-Managern helfen, Entscheidungen darüber zu treffen, wann/wie mit Maßnahmen zur Nutzerbindung eingegriffen werden soll. Zuletzt wird eine Ontologie zur Modellierung der Geschichte der Crowd-Beiträge auf verschiedenen Marktplätzen vorgestellt. Während der Bereich des Mensch-Maschine-Datenmanagements komplexe soziale und technische Herausforderungen mit sich bringt, zielen die Beiträge dieser Arbeit darauf ab, zur Entwicklung dieses noch aufstrebenden Bereichs beizutragen.
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
Softwaresprachen und Technologien zu verstehen, die bei der Entwicklung einer Software verwendet werden, ist eine alltägliche Herausforderung für Software Engineers. Textbasierte Dokumentationen und Codebeispiele sind typische Hilfsmittel, die zu einem besseren Verständnis führen sollen. In dieser Dissertation werden verschiedene Forschungsansätze beschrieben, wie existierende Textpassagen und Codebeispiele identifiziert und miteinander verbunden werden können. Die Entdeckung solcher bereits existierender Ressourcen soll dabei helfen Softwaresprachen und Technologien auf einem konzeptionellen Level zu verstehen und zu vergleichen. Die Forschungsbeiträge fokussieren sich auf die folgenden Fragen, die später präzisiert werden. Welche existierenden Ressourcen lassen sich systematisch identifizieren, um strukturiertes Wissen zu extrahieren? Wie lassen sich die Ressourcen extrahieren? Welches Vokabular wird bereits in der Literatur verwendet, um konzeptionelles Wissen zur Struktur und Verwendung einer Software auszudrücken? Wie lassen sich Beiträge auf Wikipedia wiederverwenden? Wie können Codebeispiele zur Verwendung von ausgewählten Technologien auf GitHub gefunden werden? Wie kann ein Modell, welches Technologieverwendung repräsentiert, reproduzierbar konstruiert werden? Zur Beantwortung der Forschungsfragen werden qualitative Forschungsmethoden verwendet, wie zum Beispiel Literaturstudien. Des Weiteren werden Methoden entwickelt und
evaluiert, um relevante Artikel auf Wikipedia, relevante Textpassagen in der Literatur und Codebeispiele auf GitHub zu verlinken. Die theoretischen Beiträge werden in Fallstudien evaluiert. Die folgenden wissenschaftlichen Beiträge werden dabei erzielt: i.) Eine Referenzsemantik zur Formalisierung von Typen und Relationen in einer sprachfokussierten Beschreibung von Software; ii.) Ein Korpus bestehend aus Wikipedia Artikeln zu einzelnen Softwaresprachen; iii) Ein Katalog mit textuell beschriebenen Verwendungsmustern einer Technologie zusammen mit Messergebnissen zu deren Frequenz auf GitHub; iv.) Technologiemodelle, welche sowohl mit verschiedenen existierenden Codebeispielen als auch mit Textpassagen verknüpft sind.
Das Web ist ein wesentlicher Bestandteil der Transformation unserer Gesellschaft in das digitale Zeitalter. Wir nutzen es zur Kommunikation, zum Einkaufen und für unsere berufliche Tätigkeit. Der größte Teil der Benutzerinteraktion im Web erfolgt über Webseiten. Daher sind die Benutzbarkeit und Zugänglichkeit von Webseiten relevante Forschungsbereiche, um das Web nützlicher zu machen. Eyetracking ist ein Werkzeug, das in beiden Bereichen hilfreich sein kann. Zum einen um Usability-Tests durchzuführen, zum anderen um die Zugänglichkeit zu verbessern. Es kann verwendet werden, um die Aufmerksamkeit der Benutzer auf Webseiten zu verstehen und Usability-Experten in ihrem Entscheidungsprozess zu unterstützen. Darüber hinaus kann Eyetracking als Eingabemethode zur Steuerung einer Webseite verwendet werden. Dies ist besonders nützlich für Menschen mit motorischen Beeinträchtigungen, die herkömmliche Eingabegeräte wie Maus und Tastatur nicht benutzen können. Allerdings werden Webseiten aufgrund von Dynamiken, d. h. wechselnden Inhalten wie animierte Menüs und Bilderkarussells, immer komplexer. Wir brauchen allgemeine Ansätze zum Verständnis der Dynamik auf Webseiten, die eine effiziente Usability-Analyse und eine angenehme Interaktion mit Eyetracking ermöglichen. Im ersten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Analyse von dynamischen Webseiten. Eyetracking kann verwendet werden, um die Blicke von Nutzern auf Webseiten zu erfassen. Die Blicke zeigen einem Usability-Experten, welche Teile auf der Webseite gelesen, überflogen oder übersprungen worden sind. Die Aggregation von Blicken ermöglicht einem Usability-Experten allgemeine Eindrücke über die Aufmerksamkeit der Nutzer, bevor sie sich mit dem individuellen Verhalten befasst. Dafür müssen alle Blicke entsprechend des von den Nutzern erlebten Inhalten verstanden werden. Die Benutzererfahrung wird jedoch stark von wechselnden Inhalten beeinflusst, da diese einen wesentlichen Teil des angezeigten Bildes ausmachen können. Wir grenzen unterschiedliche Zustände von Webseiten inklusive wechselnder Inhalte ab, so dass Blicke von mehreren Nutzern korrekt aggregiert werden können. Im zweiten Teil dieser Arbeit berichten wir über unsere Forschung zur Verbesserung der blickbasierten Interaktion mit dynamischen Webseiten. Eyetracking kann verwendet werden, um den Blick während der Nutzung zu erheben. Der Blick kann als Eingabe zur Steuerung einer Webseite interpretiert werden. Heutzutage wird die Blicksteuerung meist zur Emulation einer Maus oder Tastatur verwendet, was eine komfortable Bedienung erschwert. Es gibt wenige Webbrowser-Prototypen, die Blicke direkt zur Interaktion mit Webseiten nutzen. Diese funktionieren außerdem nicht auf dynamischen Webseiten. Wir haben eine Methode entwickelt, um Interaktionselemente wie Hyperlinks und Texteingaben effizient auf Webseiten mit wechselnden Inhalten zu extrahieren. Wir passen die Interaktion mit diesen Elementen für Eyetracking an, so dass ein Nutzer bequem und freihändig im Web surfen kann. Beide Teile dieser Arbeit schließen mit nutzerzentrierten Evaluationen unserer Methoden ab, wobei jeweils die Verbesserungen der Nutzererfahrung für Usability-Experten bzw. für Menschen mit motorischen Beeinträchtigungen untersucht werden.
Die Raytracing-Beschleunigung durch dedizierte Datenstrukturen ist schon lange ein wichtiges Thema der Computergrafik. Im Allgemeinen werden dafür zwei unterschiedliche Ansätze vorgeschlagen: räumliche und richtungsbezogene Beschleunigungsstrukturen. Die vorliegende Arbeit stellt einen innovativen kombinierten Ansatz dieser beiden Bereiche vor, welcher weitere Beschleunigung der Strahlenverfolgung ermöglicht. Dazu werden moderne räumliche Datenstrukturen als Basisstrukturen verwendet und um vorberechnete gerichtete Sichtbarkeitsinformationen auf Basis von Schächten innerhalb einer originellen Struktur, dem Line Space, ergänzt.
Im Laufe der Arbeit werden neuartige Ansätze für die vorberechneten Sichtbarkeitsinformationen vorgeschlagen: ein binärer Wert, der angibt, ob ein Schacht leer oder gefüllt ist, sowie ein einzelner Vertreter, der als repräsentativer Kandidat die tatsächliche Oberfläche approximiert. Es wird gezeigt, wie der binäre Wert nachweislich in einer einfachen, aber effektiven Leerraumüberspringungs-Technik (Empty Space Skipping) genutzt wird, welche unabhängig von der tatsächlich verwendeten räumlichen Basisdatenstruktur einen Leistungsgewinn beim Raytracing von bis zu 40% ermöglicht. Darüber hinaus wird gezeigt, dass diese binären Sichtbarkeitsinformationen eine schnelle Technik zur Berechnung von weichen Schatten und Umgebungsverdeckung auf der Grundlage von Blockerapproximationen ergeben. Obwohl die Ergebnisse einen gewissen Ungenauigkeitsfehler enthalten, welcher auch dargestellt und diskutiert wird, zeigt sich, dass eine weitere Traversierungsbeschleunigung von bis zu 300% gegenüber der Basisstruktur erreicht wird. Als Erweiterung zu diesem Ansatz wird die repräsentative Kandidatenvorberechnung demonstriert, welche verwendet wird, um die indirekte Lichtberechnung durch die Integration von kaum wahrnehmbaren Bildfehlern signifikant zu beschleunigen. Schließlich werden Techniken vorgeschlagen und bewertet, die auf zweistufigen Strukturen und einer Nutzungsheuristik basieren. Diese reduzieren den Speicherverbrauch und die Approximationsfehler bei Aufrechterhaltung des Geschwindigkeitsgewinns und ermöglichen zusätzlich weitere Möglichkeiten mit Objektinstanziierungen und starren Transformationen.
Alle Beschleunigungs- und Speicherwerte sowie die Näherungsfehler werden gemessen, dargestellt und diskutiert. Insgesamt zeigt sich, dass durch den Line Space eine deutliche Erhöhung der Raytracing Leistung auf Kosten eines höheren Speicherverbrauchs und möglicher Annäherungsfehler erreicht wird. Die vorgestellten Ergebnisse zeigen damit die Leistungsfähigkeit des kombinierten Ansatzes und eröffnen weitere Möglichkeiten für zukünftige Arbeiten.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Graph-based data formats are flexible in representing data. In particular semantic data models, where the schema is part of the data, gained traction and commercial success in recent years. Semantic data models are also the basis for the Semantic Web - a Web of data governed by open standards in which computer programs can freely access the provided data. This thesis is concerned with the correctness of programs that access semantic data. While the flexibility of semantic data models is one of their biggest strengths, it can easily lead to programmers accidentally not accounting for unintuitive edge cases. Often, such exceptions surface during program execution as run-time errors or unintended side-effects. Depending on the exact condition, a program may run for a long time before the error occurs and the program crashes.
This thesis defines type systems that can detect and avoid such run-time errors based on schema languages available for the Semantic Web. In particular, this thesis uses the Web Ontology Language (OWL) and its theoretic underpinnings, i.e., description logics, as well as the Shapes Constraint Language (SHACL) to define type systems that provide type-safe data access to semantic data graphs. Providing a safe type system is an established methodology for proving the absence of run-time errors in programs without requiring execution. Both schema languages are based on possible world semantics but differ in the treatment of incomplete knowledge. While OWL allows for modelling incomplete knowledge through an open-world semantics, SHACL relies on a fixed domain and closed-world semantics. We provide the formal underpinnings for type systems based on each of the two schema languages. In particular, we base our notion of types on sets of values which allows us to specify a subtype relation based on subset semantics. In case of description logics, subsumption is a routine problem. For
the type system based on SHACL, we are able to translate it into a description
logic subsumption problem.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Social-Media Plattformen wie Twitter oder Reddit bieten Nutzern nahezu ohne Beschränkungen die Möglichkeit, ihre Meinungen über aktuelle Ereignisse zu veröffentlichen, diese mit anderen zu teilen und darüber zu diskutieren. Während die Mehrheit der Nutzer diese Plattformen nur als reines Diskussionsportal verwenden, gibt es jedoch Nutzergruppen, welche aktiv und gezielt versuchen, diese veröffentlichten Meinungen in ihrem Sinne zu beeinflussen bzw. zu manipulieren. Durch wiederholtes Verbreiten von bearbeiteten Fake-News oder stark polarisierenden Meinungen im gesamten politischen Spektrum können andere Nutzer beeinflusst, manipuliert und unter Umständen zum Träger von Hassreden und extremen politischen Positionen werden. Viele dieser Nutzergruppen sind vor allem in englischsprachigen Portalen anzutreffen, in denen sie sich überwiegend als Muttersprachler ausgeben. In dieser Arbeit stellen wir eine Methode vor, englische Muttersprachler und Nicht-Muttersprachler, die Englisch als Fremdsprache verwenden, anhand von ausgewählten englischen Social Media Texten zu unterscheiden. Dazu implementieren wir textmerkmalbasierte Modelle, welche für traditionelle Machine-Learning Prozesse und neuartigen AutoML-Pipelines zur Klassifizierung von Texten verwendet werden. Wir klassifizieren dabei Sprachfamilie, Muttersprache und Ursprung eines beliebigen englischen Textes. Die Modelle werden an einem bestehenden Datensatz von Reddit, welcher hauptsächlich aus englischen Texten von europäischen Nutzern besteht, und einem neu erstellten Twitter Datensatz, der Tweets von aktuellen Themen in verschiedenen Ländern enthält, angewandt. Wir evaluieren dabei vergleichsweise die erhaltenen Resultate unserer Pipeline zu traditionellen Maschinenlernprozessen zur Texterkennung anhand von Präzision, Genauigkeit und F1-Maßen der Vorhersagen. Wir vergleichen zudem die Ergebnisse auf Unterschiede der Sprachnutzung auf den unterschiedlichen Plattformen sowie den ausgewählten Themenbereichen. Dabei erzielen wir eine hohe Vorhersagewahrscheinlichkeit für alle gewählten Kategorien des erstellten Twitter Datensatzes und stellen unter anderem eine hohe Abweichung in Bezug auf die durchschnittliche Textlänge insbesondere bei Nutzern aus dem baltoslawischen Sprachraum fest.
Data-minimization and fairness are fundamental data protection requirements to avoid privacy threats and discrimination. Violations of data protection requirements often result from: First, conflicts between security, data-minimization and fairness requirements. Second, data protection requirements for the organizational and technical aspects of a system that are currently dealt with separately, giving rise to misconceptions and errors. Third, hidden data correlations that might lead to influence biases against protected characteristics of individuals such as ethnicity in decision-making software. For the effective assurance of data protection needs,
it is important to avoid sources of violations right from the design modeling phase. However, a model-based approach that addresses the issues above is missing.
To handle the issues above, this thesis introduces a model-based methodology called MoPrivFair (Model-based Privacy & Fairness). MoPrivFair comprises three sub-frameworks: First, a framework that extends the SecBPMN2 approach to allow detecting conflicts between security, data-minimization and fairness requirements. Second, a framework for enforcing an integrated data-protection management throughout the development process based on a business processes model (i.e., SecBPMN2 model) and a software architecture model (i.e., UMLsec model) annotated with data protection requirements while establishing traceability. Third, the UML extension UMLfair to support individual fairness analysis and reporting discriminatory behaviors. Each of the proposed frameworks is supported by automated tool support.
We validated the applicability and usability of our conflict detection technique based on a health care management case study, and an experimental user study, respectively. Based on an air traffic management case study, we reported on the applicability of our technique for enforcing an integrated data-protection management. We validated the applicability of our individual fairness analysis technique using three case studies featuring a school management system, a delivery management system and a loan management system. The results show a promising outlook on the applicability of our proposed frameworks in real-world settings.
In IT-Systemen treten viele Datenschutzrisiken auf, wenn Datenschutzbedenken in den frühen Phasen des Entwicklungsprozesses nicht angemessen berücksichtigt werden. Die Datenschutz-Grundverordnung (DSGVO) schreibt das Prinzip des Datenschutz durch Technikgestaltung (PbD) vor. PbD erfordert den Schutz personenbezogener Daten von Beginn des Entwicklungsprozesses an, durch das frühzeitige Integrieren geeigneter Maßnahmen. Bei der Realisierung von PbD ergeben sich nachfolgende Herausforderungen: Erstens benötigen wir eine präzise Definition von Datenschutzbedenken. Zweitens müssen wir herausfinden, wo genau in einem System die Maßnahmen angewendet werden müssen. Drittens ist zur Auswahl geeigneter Maßnahmen, ein Mechanismus zur Ermittlung der Datenschutzrisiken erforderlich. Viertens müssen bei der Auswahl und Integration geeigneter Maßnahmen, neben den Risiken, die Abhängigkeiten zwischen Maßnahmen und die Kosten der Maßnahmen berücksichtigt werden.
Diese Dissertation führt eine modellbasierte Methodik ein, um die oben genannten Herausforderungen zu bewältigen und PbD zu operationalisieren. Unsere Methodik basiert auf einer präzisen Definition von Datenschutzbedenken und umfasst drei Untermethodiken: modellbasierte Datenschutzanalyse, modellbasierte Datenschutz-Folgenabschätzung und datenschutzfreundliche Systemmodellierung. Zunächst führen wir eine Definition für Datenschutzpräferenzen ein, anhand derer die Datenschutzbedenken präzisiert werden können und überprüft werden kann, ob die Verarbeitung personenbezogener Daten autorisiert ist. Zweitens präsentieren wir eine modellbasierte Methodik zur Analyse eines Systemmodells. Die Ergebnisse dieser Analyse ergeben die Menge der Verstöße gegen die Datenschutzpräferenzen in einem Systemmodell. Drittens führen wir eine modellbasierte Methode zur Datenschutzfolgenabschätzung ein, um konkrete Datenschutzrisiken in einem Systemmodell zu identifizieren. Viertens schlagen wir in Bezug auf die Risiken, Abhängigkeiten zwischen Maßnahmen und Kosten der Maßnahmen, eine Methodik vor, um geeignete Maßnahmen auszuwählen und in ein Systemdesign zu integrieren. In einer Reihe von realistischen Fallstudien bewerten wir unsere Konzepte und geben einen vielversprechenden Ausblick auf die Anwendbarkeit unserer Methodik in der Praxis.
Current political issues are often reflected in social media discussions, gathering politicians and voters on common platforms. As these can affect the public perception of politics, the inner dynamics and backgrounds of such debates are of great scientific interest. This thesis takes user generated messages from an up-to-date dataset of considerable relevance as Time Series, and applies a topic-based analysis of inspiration and agenda setting to it. The Institute for Web Science and Technologies of the University Koblenz-Landau has collected Twitter data generated beforehand by candidates of the European Parliament Election 2019. This work processes and analyzes the dataset for various properties, while focusing on the influence of politicians and media on online debates. An algorithm to cluster tweets into topical threads is introduced. Subsequently, Sequential Association Rules are mined, yielding wide array of potential influence relations between both actors and topics. The elaborated methodology can be configured with different parameters and is extensible in functionality and scope of application.
Softwaresysteme haben einen zunehmenden Einfluss auf unser tägliches Leben. Viele Systeme verarbeiten sensitive Daten oder steuern wichtige Infrastruktur, was die Bereitstellung sicherer Software unabdingbar macht. Derartige Systeme werden aus Aufwands- und Kostengründen selten erneuert. Oftmals werden Systeme, die zu ihrem Entwurfszeitpunkt als sicheres System geplant und implementiert wurden, deswegen unsicher, weil sich die Umgebung dieser Systeme ändert. Dadurch, dass verschiedenste Systeme über das Internet kommunizieren, sind diese auch neuen Angriffsarten stetig ausgesetzt. Die Sicherheitsanforderungen an ein System bleiben unberührt, aber neue Erkenntnisse wie die Verwundbarkeit eines zum Entwurfszeitpunkt als sicher geltenden Verschlüsselungsalgorithmus erzwingen Änderungen am System. Manche Sicherheitsanforderungen können dabei nicht anhand des Designs sondern nur zur Laufzeit geprüft werden. Darüber hinaus erfordern plötzlich auftretende Sicherheitsverletzungen eine unverzügliche Reaktion, um eine Systemabschaltung vermeiden zu können. Wissen über geeignete Sicherheitsverfahren, Angriffe und Abwehrmechanismen ist grundsätzlich verfügbar, aber es ist selten in die Softwareentwicklung integriert und geht auf Evolutionen ein.
In dieser Arbeit wird untersucht, wie die Sicherheit langlebiger Software unter dem Einfluss von Kontext-Evolutionen bewahrt werden kann. Der vorgestellte Ansatz S²EC²O hat zum Ziel, die Sicherheit von Software, die modellbasiert entwickelt wird, mithilfe von Ko-Evolutionen wiederherzustellen.
Eine Ontologie-basierende Wissensbasis wird eingeführt, die sowohl allgemeines wie auch systemspezifisches, sicherheitsrelevantes Wissen verwaltet. Mittels einer Transformation wird die Verbindung der Wissensbasis zu UML-Systemmodellen hergestellt. Mit semantischen Differenzen, Inferenz von Wissen und der Erkennung von Inkonsistenzen in der Wissensbasis werden Kontext-Evolutionen erkannt.
Ein Katalog mit Regeln zur Verwaltung und Wiederherstellung von Sicherheitsanforderungen nutzt erkannte Kontext-Evolutionen, um mögliche Ko-Evolutionen für das Systemmodell vorzuschlagen, welche die Einhaltung von Sicherheitsanforderungen wiederherstellen.
S²EC²O unterstützt Sicherheitsannotationen, um Modelle und Code zum Zwecke einer Laufzeitüberwachung zu koppeln. Die Adaption laufender Systeme gegen Bedrohungen wird ebenso betrachtet wie Roundtrip-Engineering, um Erkenntnisse aus der Laufzeit in das System-Modell zu integrieren.
S²EC²O wird ergänzt um eine prototypische Implementierung. Diese wird genutzt, um die Anwendbarkeit von S²EC²O im Rahmen einer Fallstudie an dem medizinischen Informationssystem iTrust zu zeigen.
Die vorliegende Arbeit leistet einen Beitrag, um die Entwicklung und Wartung langlebiger Softwaresysteme in Bezug auf ihre Sicherheit zu begleiten. Der vorgestellte Ansatz entlastet Sicherheitsexperten bei ihrer Arbeit, indem er sicherheitsrelevante Änderungen des Systemkontextes erfasst, den Einfluss auf die Sicherheit der Software prüft und Ko-Evolutionen zur Bewahrung der Sicherheitsanforderungen ermöglicht.
Abstract
This bachelor thesis delivers a comprehensive overview of the topic Internet of Things (IoT). With the help of a first literature review, important characteristics, architectures, and properties have been identified. The main aim of this bachelor thesis is to determine whether the use of IoT in the transport of food, considering the compliance with the cold chain, can provide advantages for companies to reduce food waste. For this purpose, a second literature review has been carried out with food transport systems without the use, as well as with the use of IoT. Based on the literature review, it is possible at the end to determine a theoretical ‘ideal’ system for food transport in refrigerated trucks. The respective used technologies are also mentioned. The findings of several authors have shown that often significant improvements can be achieved in surveillance, transport in general, or traceability of food, and ultimately food waste can be reduced. However, benefits can also be gained using new non-IoT-based technologies. Thus, the main knowledge of this bachelor thesis is that a theoretical ‘ideal’ transport system contains a sensible combination of technologies with and without IoT. This system includes the use of a Wireless Sensor Network (WSN) for real-time food monitoring, as well as an alarm function when the temperature exceeds a maximum. Real-time monitoring with GPS coupled with a monitoring center to prevent traffic jams is another task. Smart and energy-efficient packaging, and finally the use of the new supercooling-technology, make the system significantly more efficient in reducing food waste. These highlights, that when choosing a transport system, which is as efficient and profitable as possible for food with refrigerated transport, companies need not just rely on the use of IoT. On this basis, it is advisable to combine the systems and technologies used so far with IoT in order to avoid as much food waste as possible.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Die Mitralklappe ist eine der vier Herzklappen des Menschen. Sie befindet sich in der linken Herzkammer und agiert als ein unidirektionales Ventil, welches den Blutfluss vom linken Atrium zum linken Ventrikel steuert. Eine funktionierende Mitralklappe verhindert den Rückfluss von Blut in den Lungenkreislauf, wodurch sie einen unverzichtbaren Anteil zu einem gesunden Herzkreislauf beiträgt. Pathologien der Mitralklappe können eine Reihe von Symptomen hervorrufen, welche in ihrer Schwere von Brustschmerzen und Ermüdung bis zum Lungenödem (dem Eindringen von Flüssigkeit in die Lunge) reichen können. Im schlimmsten Fall kann dieses zum Atemversagen führen.
Dysfunktionale Mitralklappen können mithilfe komplexer chirurgischer Eingriffe wiederhergestellt werden, welche in hohem Maße von intensiver Planung und präoperativer Analyse profitieren. Visualisierungstechniken eröffnen die Möglichkeit, solche Vorbereitungsprozesse zu unterstützen und können zudem einer postoperativen Evaluation dienlich sein. Die vorliegende Arbeit erweitert die Forschung in diesem Bereich. Sie stützt sich auf patientenspezifische Segmentierungen der Mitralklappe, wie sie am Deutschen Krebsforschungszentrum entwickelt werden. Solche Segmentierungen resultieren in 3D-Modellen der Mitralklappe. Der Kern dieser Arbeit wird sich mit der Konstruktion einer 2D-Ansicht dieser Modelle befassen. Die 2D-Visualisierung wird durch Methoden der globalen Parametrisierung erzeugt, welche es erlauben, bijektive Abbildungen zwischen einem planaren Parameterraum und Oberflächen in höheren Dimensionen zu erstellen.
Eine ebene Repräsentation der Mitralklappe ermöglicht Ärzten einen unmittelbaren Blick auf deren gesamte Oberfläche, analog zu einer Karte. Dies erlaubt die Begutachtung der Fläche und Form ohne die Notwendigkeit unterschiedlicher Blickwinkel. Teile der Klappe, die in der 3D-Ansicht von Geometrie verdeckt sind, werden in der 2D-Darstellung sichtbar.
Ein weiterer Beitrag dieser Arbeit ist die Untersuchung verschiedener Visualisierungen der 3D- und 2D-Mitralklappenrepräsentationen. Merkmale der Klappe können durch Assoziation mit spezifizierten Farbschemata hervorgehoben werden. So können zum Beispiel Pathologie-Indikatoren direkt vermittelt werden.
Qualität und Wirkungsgrad der vorgestellten Methoden wurden in einer Studie am Universitätsklinikum Heidelberg evaluiert.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
The content aggregator platform Reddit has established itself as one of the most popular websites in the world. However, scientific research on Reddit is hindered as Reddit allows (and even encourages) user anonymity, i.e., user profiles do not contain personal information such as the gender. Inferring the gender of users in large-scale could enable the analysis of gender-specific areas of interest, reactions to events, and behavioral patterns. In this direction, this thesis suggests a machine learning approach of estimating the gender of Reddit users. By exploiting specific conventions in parts of the website, we obtain a ground truth for more than 190 million comments of labeled users. This data is then used to train machine learning classifiers to use them to gain insights about the gender balance of particular subreddits and the platform in general. By comparing a variety of different approaches for classification algorithm, we find that character-level convolutional neural network achieves performance with an 82.3% F1 score on a task of predicting a gender of a user based on his/her comments. The score surpasses 85% mark for frequent users with more than 50 comments. Furthermore, we discover that female users are less active on Reddit platform, they write fewer comments and post in fewer subreddits on average, when compared to male users.
This paper describes the robot Lisa used by team
homer@UniKoblenz of the University of Koblenz Landau, Germany, for the participation at the RoboCup@Home 2016 in Leipzig, Germany. A special focus is put on novel system components and the open source contributions of our team. We have released packages for object recognition, a robot face including speech synthesis, mapping and navigation, speech recognition interface via android and a GUI. The packages are available (and new packages will be released) on http://wiki.ros.org/agas-ros-pkg.
Der Fachbereich 4 (Informatik) besteht aus fünfundzwanzig Arbeitsgruppen unter der Leitung von Professorinnen und Professoren, die für die Forschung und Lehre in sechs Instituten zusammenarbeiten.
In jedem Jahresbericht stellen sich die Arbeitsgruppen nach einem einheitlichen Muster dar, welche personelle Zusammensetzung sie haben, welche Projekte in den Berichtszeitraum fallen und welche wissenschaftlichen Leistungen erbracht wurden. In den folgenden Kapiteln werden einzelne Parameter aufgeführt, die den Fachbereich in quantitativer Hinsicht, was Drittmitteleinwerbungen, Abdeckung der Lehre, Absolventen oder Veröffentlichungen angeht, beschreiben.
Der Fachbereich 4 (Informatik) besteht aus fünfundzwanzig Arbeitsgruppen unter der Leitung von Professorinnen und Professoren, die für die Forschung und Lehre in sechs Instituten zusammenarbeiten.
In jedem Jahresbericht stellen sich die Arbeitsgruppen nach einem einheitlichen Muster dar, welche personelle Zusammensetzung sie haben, welche Projekte in den Berichtszeitraum fallen und welche wissenschaftlichen Leistungen erbracht wurden. In den folgenden Kapiteln werden einzelne Parameter aufgeführt, die den Fachbereich in quantitativer Hinsicht, was Drittmitteleinwerbungen, Abdeckung der Lehre, Absolventen oder Veröffentlichungen angeht, beschreiben.
“Did I say something wrong?” A word-level analysis of Wikipedia articles for deletion discussions
(2016)
Diese Arbeit beschäftigt sich damit, linguistische Erkenntnisse auf Wortebene über schriftlichen Diskussionen zu gewinnen. Die Unterscheidung zwischen Botschaften, welche sich förderlich auf Diskussionen auswirken und jene, welche diese unterbrechen, spielte dabei eine besondere Rolle. Hierbei lag ein Schwerpunkt darauf, zu ermitteln, ob Ich- und Du-Botschaften charakteristisch für die beiden Kommunikationsarten sind. Diese Botschaften sind über Jahre hinweg zu Empfehlungen für erfolgreiche Kommunikation avanciert. Ihre zugeschriebene Wirkung wurde zwar mehrfach bestätigt, jedoch geschah dies stets in kleineren Studien. Deshalb wurde in dieser Arbeit mithilfe der Löschdiskussionen der englischen Wikipedia und der Liste gesperrter Nutzer eine vollautomatische Erstellung eines annotierten Datensatzes entwickelt. Dabei wurden Diskussionsbotschaften entweder als förderlich oder schädlich für einen konstruktiven Diskussionsverlauf markiert. Dieser Datensatz wurde anschließend im Rahmen einer binären Klassifikation verwendet, um charakteristische Worte für die beiden Kommunikationsarten zu bestimmen. Es wurde zudem untersucht, ob anhand von Synsemantika (auch bekannt als Funktionswörter) wie Pronomen oder Konjunktionen eine Entscheidung über die Kommunikationsart einer Botschaft getroffen werden kann. Du-Botschaften wurden, übereinstimmend mit ihrer zugeschriebenen negativen Auswirkung auf Kommunikation, als schädlich in den durchgeführten Untersuchungen identifiziert. Entgegen der zugeschriebenen positiven Auswirkung von Ich-Botschaften, wurde bei diesen ebenfalls eine schädlich Wirkung festgestellt. Eine klare Aussage über die Relevanz von Synsemantika konnte anhand der Ergebnisse nicht getroffen werden. Weitere charakteristische Worte konnten nicht festgestellt werden. Die Ergebnisse deuten darauf hin, dass ein anderes Modell textliche Diskussionen potentiell besser abbilden könnte.
Diese Arbeit präsentiert einen Ansatz zur Optimierung der Berechnung von Halbschatten flächiger Lichtquellen. Die Lichtquelle wird durch Sampling uniform abgetastet. Als Datenstruktur wird ein N-tree verwendet, durch den die Strahlen als Paket traversiert werden. Der N-tree speichert in seinen Knoten einen Linespace, der Informationen über Geometrie innerhalb eines Schaftes bietet. Diese Sichtbarkeitsinformation wird als Kriterium für eine Terminierung eines Strahles genutzt. Zusätzlich wird die Grafikkarte (kurz GPU – engl. „graphics processing unit“) zur Beschleunigung durch Parallelisierung benutzt. Die Szene wird zunächst mit OpenGL gerendert und anschließend der Schattenwert für jedes Pixel auf der GPU berechnet. Im Anschluss werden die CPU- und GPU-Implementationen verglichen. Dabei zeigt die GPU-Implementation eine Beschleunigung von 86% gegenüber der CPU-Implementation und bietet eine gute Skalierung mit zunehmender Dreieckszahl. Die Verwendung des Linespace beschleunigt das Verfahren gegenüber der Durchführung von Schnitttests und zeigt für eine große Anzahl an Strahlen keine visuellen Nachteile.
Proceedings des FWS 2015
(2016)
Die Aufnahme, Verarbeitung und Analyse farbiger bzw. mehrkanaliger Bilder gewinnt seit Jahren ständig an Bedeutung. Diese Entwicklung wird durch die verbesserten technischen Möglichkeiten und die stetig steigenden Ansprüche aus den vielfältigen Anwendungsfeldern in Industrie, Medizin, Umwelt und Medien befördert. Diesem Trend folgend wurde in Koblenz 1995 erstmals der Workshop Farbbildverarbeitung durchgeführt und hat sich seitdem als jährlich stattfindende Veranstaltung etabliert. Als Veranstaltung der German ColorGroup bietet der Workshop ein Diskussionsforum für Forscher, Entwickler und Anwender, das sich den Problemen der Farbtheorie, Farbmessung, Farbbildaufnahme und spektralen Bildgewinnung ("hyper-spectral imaging") genauso wie der Entwicklung von neuen Methoden und Algorithmen zur Verarbeitung und Analyse von Farbbildern und mehrkanaligen (spektroskopischen) Bilddaten widmet. Ebenso nehmen Fragestellungen der farbtreuen Bildreproduktion auf verschiedenen Ausgabemedien wie auch die Nutzung von Methoden und Verfahren der Farbbildverarbeitung im Rahmen der industriellen Qualitätskontrolle sowie in Robotik und Automatisierung gebührenden Platz ein.
This habilitation thesis collects works addressing several challenges on handling uncertainty and inconsistency in knowledge representation. In particular, this thesis contains works which introduce quantitative uncertainty based on probability theory into abstract argumentation frameworks. The formal semantics of this extension is investigated and its application for strategic argumentation in agent dialogues is discussed. Moreover, both the computational as well as the meaningfulness of approaches to analyze inconsistencies, both in classical logics as well as logics for uncertain reasoning is investigated. Finally, this thesis addresses the implementation challenges for various kinds of knowledge representation formalisms employing any notion of inconsistency tolerance or uncertainty.
Das Ziel dieser Masterarbeit war es, ein Konzept für einen mobilen Stadtführer mit gamebasierten Inhalten zu entwerfen und prototypisch umzusetzen.
Die Anwendung soll ein flexibles und unabhängiges Entdecken der Stadt Koblenz ermöglichen. Basierend auf den geographischen Daten wurden in der Anwendung stadthistorische Informationen sowie interessante Geschichten zu verschiedenen Orten bereitgestellt. Diese Informationen wurden mit spielerischen Elementen kombiniert, um ein motivierendes Konzept zu schaffen.
Dafür wurden zunächst verwandte Ansätze untersucht und darauf aufbauend unter Berücksichtigung eigener Ideen ein neues Konzept entwickelt. Das Konzept wurde prototypisch als Android-Anwendung umgesetzt. Das Ergebnis wurde in einer abschließenden Evaluation mit 15 Probanden untersucht. Dabei wurden mit Hilfe eines Fragebogens unter anderem die Bedienbarkeit, die Motivation durch die Spielelemente und der Mehrwert der Anwendung betrachtet.
Simulation von Schnee
(2015)
Physik-Simulationen erlauben die Erstellung dynamischer Szenen auf dem Rechner. Sie lassen die Computergrafik lebendig werden und finden unter anderem Anwendung in Film, Spiel und Ingenieurswesen. Durch GPGPU-Techniken kann diese Arbeit erstmals auf der Grafikkarte stattfinden. Die dynamische Simulation von Schnee ist ein Gebiet, das aufgrund seiner physikalischen Komplexität noch wenig erforscht ist. Die Materie-Punkt-Methode ist das erste Modell, dass in der Lage ist die Dynamik und verschiedenen Arten von Schnee darzustellen.
Die hybride Nutzung von Lagrange-Partikeln und einem kartesischen Euler-Gitter ermöglichen das Lösen der partiellen Differentialgleichungen. Die Partikel werden dazu auf die Gitterknoten transformiert. Durch Anwendung der Finite-Elemente-Methode auf das Gitter können Gradienten zur Aktualisierung der Geschwindigkeit berechnet werden. Die Geschwindigkeiten werden dann auf die Partikel zurückgewichtet, um diese in der Simulation voranschreiten zu lassen. Gepaart mit einem spezifischen Materialmodell wird die dynamische Natur von Schnee erlangt. Diese schließt Kollision und Bruch mit ein.
Diese Bachelorarbeit verbindet die kürzlich erschienenen GPGPU-Techniken von OpenGL mit der Materie-Punkt-Methode, um die verschiedenen Schneearten dynamisch, visuell ansprechend und effizient zu simulieren
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
Die Arbeitsgruppe Echtzeitsysteme an der Universität Koblenz beschäftigt sich seit mehreren Jahren mit der Thematik autonomes und assistiertes Fahren. Eine große Herausforderung stellen in diesem Zusammenhang mehrgliedrige Fahrzeuge dar, deren Steuerung für den Fahrer während der Rückwärtsfahrt sehr anspruchsvoll ist. Um präzise Manöver zu ermöglichen, können elektronische Fahrerassistenzsysteme zum Einsatz kommen. Im Rahmen vorhergehender Arbeiten sind bereits einige Prototypen entstanden, von denen jedoch keiner eine geeignete Lösung für moderne, zweiachsige Anhänger darstellt. Im Rahmen dieser Arbeit wurde ein prototypisches Fahrerassistenzsystem entwickelt, wobei es noch weiterer Forschungs- und Entwicklungsarbeit bedarf, um das System straßentauglich zu machen.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
101worker ist die modulare Wissensverarbeitungskomponente des 101companies-Projektes. Durch organisches Wachstum des Systems, statt Beachtung von bewährten Software-Design-Prinzipien, haben sich Wartungs- und Leistungsprobleme entwickelt. Diese Arbeit beschreibt diese Probleme, entwirft Anforderungen für das Refactoring des Systems und beschreibt und analysiert schließlich die resultierende Implementierung. Die Lösung involviert die Zusammenfassung von verstreuten und redundanten Informationen, aufsetzen von Unit- und funktionalen Test-Suiten und Inkrementalisierung der Busarchitektur von 101worker.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
Die Mitralklappe ist eine der vier Herzklappen des Menschen und in der linken Herzkammer zu finden. Ihre Funktion ist es, den Blutfluss vom linken Atrium zum linken Ventrikel zu regeln. Pathologien können zu eingeschränker Funktionalität der Klappe führen, sodass Blut zurück ins Atrium fließen kann. Patienten, die von einer Fehlfunktion betroffen sind, leiden möglicherweise an Erschöpfung und Schmerzen in der Brust. Die Funktionalität kann chirurgisch wiederhergestellt werden, was meist ein langer und anstrengender Eingriff ist. Eine gründliche Planung ist daher nötig, um eine sichere und effektive Operation zu garantieren. Dies kann durch prä-operative Segmentierungen der Mitralklappe unterstützt werden. Eine post-operative Analyse kann den Erfolg eines Eingriffs feststellen. Diese Arbeit wird bestehende und neue Ideen zu einem neuen Ansatz kombinieren, der zur (semi-)automatischen Erstellung solcher Mitralmodelle dienen kann. Der manuelle Anteil garantiert ein Modell hoher Qualität, während der automatische Teil dazu beiträgt, wertvolle Arbeitszeit zu sparen.
Die Hauptbeiträge des automatischen Algorithmus sind eine ungefähre semantische Trennung der beiden Mitralsegel und ein Optimierungsprozess, der in der Lage ist, eine Koaptations-Linie und -Fläche zwischen den Segeln zu finden. Die Methode kann eine vollautomatische Segmentierung der Mitralsegel durchführen, wenn der Annulusring bereits gegeben ist. Die Zwischenschritte dieses Vorgangs werden in eine manuelle Segmentierungsmethode integriert, so dass ein Benutzer den Gesamtprozess beeinflussen kann. Die Qualität der generierten Mitralmodelle wird durch das Vergleichen mit vollständig manuell erstellten Modellen gemessen. Dies wird zeigen, dass übliche Methoden zur Bestimmung der Qualität einer Segmentierung zu allgemein gefasst sind und nicht ausreichen, um die echte Qualität eines Modells widerspiegeln zu können. Folglich führt diese Arbeit Messungen ein, die in der Lage sind, eine Segmentierung der Mitralklappe detailliert und unter Betracht anatomischer Landmarken bewerten zu können. Neben der intra-operativen Unterstützung eines Chirurgen liefert eine segmentierte Mitralklappe weitere Vorteile. Die Möglichkeit, die Anatomie einer Klappe patientenspezifisch aufzunehmen und objektiv zu bewerten, könnte als Grundlage für zukünftige medizinische Forschung in diesem Bereich dienen. Die Automatisierung erlaubt dabei das Bearbeiten großer Datenmengen mit reduzierter Abhängigkeit von Experten. Desweiteren könnten Simulationsmethoden, welche ein segmentiertes Modell als Eingabe nutzen, das Ergebnis einer Operation vorhersagen.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Bei der eindeutigen Isolation und Klassifizierung von Merkmalen in 3D-Multi-Attribut-Volumendaten sind multidimensionale Transferfunktionen unabdingbar. Jedoch wird bei mehreren Dimensionen das Verständnis der Daten sowie die Interaktion mit diesen zu einer Herausforderung. Weder die Kontrolle der vielseitigen Eingabeparameter noch die Visualisierung im höherdimensionalen Raum sind trivial.
Ziel dieser Arbeit ist die Erstellung eines Transferfunktionseditors, der durch die Verwendung von verschiedenen Visualisierungs- und Interaktionstechniken, z.B. der Verwendung von parallelen Koordinatenachsen, die Erstellung multidimensionaler Transferfunktionen unterstützt. Dabei sollen unterschiedliche Dimensionen interaktiv ausgewählt und kombiniert werden und die Veränderungen der Transferfunktion durch visuelles Feedback im gerenderten Volumen bestätigt werden.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
Thematik dieser Arbeit ist das dreidimensionale Image-Warping für diffuse und reflektierende Oberflächen. Das Warpingverfahren für den reflektierenden Fall gibt es erst seit 2014. Bei diesem neuen Algorithmus treten Artefakte auf, sobald ein Bild für einen alternativen Blickwinkel auf eine sehr unebene Fläche berechnet werden soll.
In dieser Arbeit wird der Weg von einem Raytracer, der die Eingabetexturen erzeugt, über das Warpingverfahren für beide Arten der Oberflächen, bis zur Optimierung des Reflective-Warping-Verfahrens erarbeitet. Schließlich werden die Ergebnisse der Optimierung bewertet und in den aktuellen sowie zukünftigen Stand der Technik eingeordnet.
Information systems research has started to use crowdsourcing platforms such as Amazon Mechanical Turks (MTurk) for scientific research, recently. In particular, MTurk provides a scalable, cheap work-force that can also be used as a pool of potential respondents for online survey research. In light of the increasing use of crowdsourcing platforms for survey research, the authors aim to contribute to the understanding of its appropriate usage. Therefore, they assess if samples drawn from MTurk deviate from those drawn via conventional online surveys (COS) in terms of answers in relation to relevant e-commerce variables and test the data in a nomological network for assessing differences in effects.
The authors compare responses from 138 MTurk workers with those of 150 German shoppers recruited via COS. The findings indicate, inter alia, that MTurk workers tend to exhibit more positive word-of mouth, perceived risk, customer orientation and commitment to the focal company. The authors discuss the study- results, point to limitations, and provide avenues for further research.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Wir analysieren versionsbasierte Softwareprojekte, um den Entwicklern API- und Domänen-Wissen zuzuordnen. Genauer gesagt analysieren wir die einzelnen Commits in einem Repository in Hinblick auf die API-Nutzung. Auf dieser Grundlage können wir APIs (oder Teile davon) den Entwicklern zuordnen und dadurch auf die API-Erfahrung der Entwickler schließen. Im transitiven Schluss können wir auf Domänen-Erfahrung schließen, da jeder API eine Programmierdomäne zugewiesen wird.
Geographisches Cluster-basiertes Routing ist ein aktueller Ansatz, wenn es um das Entwicklen von effizienten Routingalgorithmen für drahtlose ad-hoc Netzwerke geht. Es gibt bereits eine Anzahl an Algorithmen, die Nachrichten nur auf Basis von Positionsinformationen durch ein drahtloses ad-hoc Netzwerk routen können. Darunter befinden sich sowohl Algorithmen, die auf das klassische Beaconing setzen, als auch Algorithmen, die beaconlos arbeiten (keine Informationen über die Umgebung werden benötigt, außer der eigenen Position und der Position des Ziels). Geographisches Routing mit Auslieferungsgarantie kann auch auf Overlay-Graphen durchgeführt werden. Bisher werden die dafür benötigten Overlay-Graphen nicht reaktiv konstruiert.
In dieser Arbeit wird ein reaktiver Algorithmus, der Beaconless Cluster Based Planarization Algorithmus (BCBP), für die Konstruktion eines planaren Overlay-Graphen vorgestellt, der die benötigte Anzahl an Nachrichten für die Konstruktion eines planaren Overlay-Graphen, und demzufolge auch Cluster-basiertes geographishes Routing, deutlich reduziert. Basierend auf einem Algorithmus für Cluster-basierte Planarisierung, konstruiert er beaconlos einen planaren Overlay-Graphen in einem unit disk graph (UDG). Ein UDG ist ein Modell für ein drahtloses Netzwerk, bei dem alle Teilnehmer den gleichen Senderadius haben.
Die Evaluierung des Algorithmus zeigt, dass er wesentlich effizienter ist als die Baecon-basierte Variante. Ein weiteres Ergebnis dieser Arbeit ist ein weiterer beaconloser Algorithmus (Beaconless LLRAP (BLLRAP)), für\r\nden zwar die Planarität, aber nicht die Konnektivität nachgewiesen werden konnte.