004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (203)
- Mehrsprachig (3)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
- Java (7)
- Software Engineering (7)
- Visualisierung (7)
- Simulation (6)
- Android (5)
- Datenschutz (5)
- Evaluation (5)
- GPGPU (5)
- Interaktion (5)
- Mustererkennung (5)
- Netzwerk (5)
- Objektverfolgung (5)
- Petri-Netze (5)
- Programmierung (5)
- Shader (5)
- Volumen-Rendering (5)
- Volumendaten (5)
- ontology (5)
- Bluetooth (4)
- Business Intelligence (4)
- Computergrafik (4)
- E-KRHyper (4)
- E-Learning (4)
- E-Partizipation (4)
- Enterprise 2.0 (4)
- GPU (4)
- Graphik (4)
- Information Retrieval (4)
- Knowledge Compilation (4)
- Logistik (4)
- OWL (4)
- OWL <Informatik> (4)
- Ontologie <Wissensverarbeitung> (4)
- Ontology (4)
- RIP-MTI (4)
- Rechnernetz (4)
- Router (4)
- SPARQL (4)
- Smartphone (4)
- Software (4)
- Supply Chain Management (4)
- Tracking (4)
- UML (4)
- VNUML (4)
- VOXEL (4)
- Wiki (4)
- XML (4)
- computer clusters (4)
- API (3)
- Analyse durch Synthese (3)
- Android <Systemplattform> (3)
- Augenbewegung (3)
- BPMN (3)
- C++ (3)
- Compute Shader (3)
- Computeranimation (3)
- Computervisualistik (3)
- Datenanalyse (3)
- Datenaustausch (3)
- Echtzeitsystem (3)
- Echtzeitsysteme (3)
- Fahrzeug (3)
- GPS (3)
- Globale Beleuchtung (3)
- Grafikkarte (3)
- Instant Messaging (3)
- Internet (3)
- Kamera (3)
- Markerloses Tracking (3)
- Mikrocontroller (3)
- Mikrocontroller AVR (3)
- Modellbasiertes Tracking (3)
- Netzwerksimulation (3)
- Ontologie (3)
- OpenGL Shading Language (3)
- Prozessmanagement (3)
- Ray tracing (3)
- Raytracing (3)
- Rechnernetze (3)
- Rettungsroboter (3)
- Segmentierung (3)
- Spiel (3)
- Stereosehen (3)
- TGraph (3)
- Transferfunktion (3)
- University (3)
- Wikipedia (3)
- World of Warcraft (3)
- XTPeer (3)
- classification (3)
- interaktiv (3)
- model-based (3)
- parallel algorithms (3)
- 3D (2)
- Abduktion <Logik> (2)
- Akkreditierung (2)
- Akzeptanz (2)
- Annotation (2)
- App (2)
- Applikation (2)
- Automatische Klassifikation (2)
- Automatisches Beweisverfahren (2)
- Autonome Fahrzeuge (2)
- Autonomes Robotersystem (2)
- Beschaffung (2)
- Bild (2)
- Bildregistrierung (2)
- Browser (2)
- CSCW (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer (2)
- Computer Graphics (2)
- Computer Supported Cooperative Work (2)
- Computertomografie (2)
- Content Management (2)
- Crowdsourcing (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- DTI (2)
- Data Mining (2)
- Datensicherheit (2)
- Delta (2)
- Digital Rights Management (2)
- Distance Vector Routing (2)
- Distanz Vektor Routing (2)
- Dokumentation (2)
- E-IMS (2)
- E-Mail (2)
- E-participation (2)
- Eclipse <Programmierumgebung> (2)
- Electronic Government (2)
- Enhanced Reality (2)
- Entwicklung (2)
- Equality (2)
- Erweiterte Realität (2)
- Eyetracking (2)
- Fahrerassistenzsystem (2)
- Fallstudie (2)
- Formale Ontologie (2)
- Framework (2)
- Frau (2)
- GLSL (2)
- Gaze Tracker (2)
- Geschäftsprozess (2)
- Google App Engine (2)
- Google Web Toolkit (2)
- Grafikprozessor (2)
- Graphikprozessor (2)
- High dynamic Range (2)
- IBM Lotus Quickr (2)
- IPv6 (2)
- Information Flow Ontology (2)
- Informationsmanagement (2)
- Informationssystem (2)
- Informationsvisualisierung (2)
- Innovationsmanagement (2)
- Internetzugang (2)
- Interoperabilität (2)
- JGraLab (2)
- Kalibrierung (2)
- Klassifikation (2)
- Kollaboration (2)
- Konvergenz (2)
- Kryptographie (2)
- Künstliche Intelligenz (2)
- Laser (2)
- Laserscanner (2)
- Line Space (2)
- Linked Open Data (2)
- Maschinelles Lernen (2)
- Medizinische Visualisierung (2)
- Metriken (2)
- Modell (2)
- Modellfahrzeug (2)
- Modellgetriebene Entwicklung (2)
- Modellierung (2)
- Modelltransformation (2)
- Navigation (2)
- Network (2)
- Netzwerkmanagement (2)
- Neuronales Netz (2)
- Online-Befragung (2)
- Open Source (2)
- Partikelsystem (2)
- Personalausweis (2)
- Petri Nets (2)
- Petri-Netz (2)
- Program Slicing (2)
- Propagation (2)
- Prädikatenlogik (2)
- Qualität (2)
- RDF (2)
- RDF <Informatik> (2)
- RFID (2)
- RIP (2)
- RMTI (2)
- Reengineering (2)
- Registrierung <Bildverarbeitung> (2)
- Rendering (2)
- Roboter (2)
- Rollenspiel (2)
- Routing Information Protocol (2)
- Schatten (2)
- Schlussfolgern (2)
- Security (2)
- Selbstlokalisation (2)
- Semantic Desktop (2)
- Semantik (2)
- Serviceorientierte Architektur (2)
- Sicherheit (2)
- Softwareentwicklung (2)
- Softwaretest (2)
- Spielkonsole (2)
- SpoGA (2)
- Starrkörper (2)
- Steuerung (2)
- Tablet PC (2)
- Textur-Mapping (2)
- Theorem Proving (2)
- Transform Feedback (2)
- Transformation (2)
- Umfrage (2)
- Universität Koblenz-Landau (2)
- Usability (2)
- Usage Rights Management (2)
- Virtualisierung (2)
- Virtuelle Realität (2)
- Virtuelle Welt (2)
- Volumen (2)
- Volumenrendering (2)
- WLAN (2)
- Wasseroberfläche (2)
- Web 2.0 (2)
- Web Analytics (2)
- Web Services (2)
- WebGL (2)
- Webcam (2)
- Werbung (2)
- Wii (2)
- Wiimote (2)
- Wissensmanagement (2)
- World Wide Web 2.0 (2)
- Zielverfolgung (2)
- artifcial neural networks (2)
- artificial neural networks (2)
- computer science (2)
- constraint logic programming (2)
- eGovernment (2)
- game (2)
- governance (2)
- hybrid automata (2)
- image processing (2)
- information system (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- probability propagation nets (2)
- security (2)
- semantics (2)
- simulation (2)
- social media (2)
- social simulation (2)
- visualization (2)
- 101companies (1)
- 2-D (1)
- 2019 European Parliament Election (1)
- 2D/3D-Segmentierung (1)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3-D-Modelle (1)
- 3-D-Scanning (1)
- 360 Grad (1)
- 360 degree (1)
- 3D Modell Referenz Bildsynthese (1)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Color-Structure-Code (1)
- 3D-Darstellung (1)
- 3D-Kartierung (1)
- 3D-Modell (1)
- 3D-Modelle (1)
- 3D-RETISEG (1)
- 3D-Videospiel (1)
- 3D-Visualisierung (1)
- 8C model (1)
- ABox (1)
- AMIRE (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- ARIS (1)
- ARToolkit (1)
- ARToolkitPlus (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- AUTOSAR (1)
- Abfragesprache (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Ad-Hoc Routing (1)
- Adaptation (1)
- Adaptive Abtastung (1)
- Adaptive Services Grid (ASG) (1)
- Administration (1)
- Adobe Flash (1)
- Adobe Flex (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Agent (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Aggregation (1)
- Aktualisierung (1)
- Alex Bernstein (1)
- Algolib (1)
- Algorithm Engineering (1)
- Algorithmus (1)
- Amazon Mechanical Turks (1)
- Ambient Occlusion (1)
- Analyse (1)
- Analyse-durch-Synthese (1)
- Analysis of social platform (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- Android development (1)
- Androidentwicklung (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Angiographiebilder (1)
- Anhänger (1)
- Anhängerfahrzeug (1)
- Animationsverfahren (1)
- Annotationsmodell (1)
- Anpassung (1)
- Anwendungsintegration (1)
- Anwendungssoftware (1)
- Anzeige (1)
- App <Programm> (1)
- ArcGIS (1)
- Architektur <Informatik> (1)
- Architekturbewertung (1)
- Archivierung (1)
- Articles for Deletion (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Association Rules (1)
- Audiodatei (1)
- Auditing (1)
- Augenblick-SDK (1)
- Augmented Reality Szenario (1)
- Auslese (1)
- Ausrichtungswerkzeug (1)
- Aussagenlogik (1)
- Ausstellung (1)
- Austausch (1)
- Auswahl (1)
- Auszeichnungssprache (1)
- Authentifizierung (1)
- Authentisierung (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automotive Systems (1)
- Autonome Exploration (1)
- Autonome Robotik (1)
- Autonomes Fahrzeug (1)
- Autonomous Exploration (1)
- Autorensystem (1)
- Avatar (1)
- Avatare (1)
- Awareness (1)
- Axis Aligned Bounding Box (AABB) (1)
- B2B Integration (1)
- BGV A1 (1)
- BI (1)
- BPM (1)
- BPMS (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Backtrack (1)
- Balanced Scorecard (1)
- Balancetheorie (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beleuchtung (1)
- Beleuchtungsverfahren (1)
- Benutzerorientierung (1)
- Benutzerprofil (1)
- Benutzerschnittstelle (1)
- Benutzerverhalten (1)
- Beschleunigungsensor (1)
- Beschreibungslogik (1)
- Besuchersoftware (1)
- Betriebssystem (1)
- Bewegung (1)
- Bewegungsablauf (1)
- Bewegungsmodell (1)
- Bewegungssteuerung (1)
- BildKlang (1)
- Bildanalyse (1)
- Bildanalyse-Verfahren (1)
- Bildaufloesung (1)
- Bildauflösung (1)
- Bilderkennung (1)
- Bildsegmentierung (1)
- Bildsensor (1)
- Bildverstehen (1)
- Billard (1)
- Binäre XML-Formate (1)
- Biometric Authentication (1)
- Biometrie (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blinder Fleck (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Bordinstrument (1)
- Breaking (1)
- Brechung (1)
- Bruchsimulation (1)
- Burg (1)
- Business Collaboration (1)
- Business Continuity Management (1)
- Business Process Modeling (1)
- Business Software (1)
- Business intelligence (1)
- Bürgerbeiteiligung (1)
- C-Programmierung (1)
- C-Socketbibliothek (1)
- CAD (1)
- CAD-System (1)
- CB2 (1)
- CIDR (1)
- CMS (1)
- CSCA (1)
- CSG (1)
- CSMs (1)
- CSV (1)
- CT-Datensätze (1)
- CTI (1)
- CTI -Problem (1)
- Calculus (1)
- CamInSens (1)
- Campus Koblenz (1)
- Cascada (1)
- Casual Game (1)
- Casual Games (1)
- Cg (1)
- Charakter-Objekt-Interaktion (1)
- Charakteranimation (1)
- Cheops (1)
- Chiffrierung (1)
- Cicero (1)
- Circumscription (1)
- Cisco Catalyst 3500XL (1)
- Classification (1)
- Closed Source (1)
- Clusteranalyse (1)
- Clustering (1)
- CodeBlue (1)
- Cold Chain (1)
- CollaborativeWriting (1)
- Colonoscopy (1)
- Color Structure Code (1)
- ColorSym (1)
- Coloskopie (1)
- Common Annotation Framework (1)
- Communication Networks (1)
- Communication System (1)
- Computational biology (1)
- Computational logic (1)
- Compute-Shader (1)
- Computer Networks (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersicherheit (1)
- Computerspiele (1)
- Computertomographie (1)
- Conference (1)
- Congestion Control (1)
- Constitutive Model (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Context-aware processes (1)
- Controlling (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Corruption (1)
- CosiMail (1)
- Counting-to-Infinity (1)
- Creativity (1)
- Criteria Matrix (1)
- DCMTK (1)
- DEMO_net (1)
- DHCPv6 (1)
- DICOM (1)
- DIN EN ISO 9241 (1)
- DNNF (1)
- DPLL (1)
- DPLL procedure (1)
- Darmpolyp (1)
- Darmspiegelung (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data analysis (1)
- Data compression (1)
- Data flow analysis (1)
- Data manipulation (1)
- Data protection (1)
- Data-Mining (1)
- Data-Warehouse-Konzept (1)
- Datenaustauschstandard (1)
- Datenbanksystem (1)
- Datenbrille (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenkompression (1)
- Datenschutzpolicy (1)
- Datenstruktur (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delphi-Studie (1)
- Demoskopie (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Design Thinking (1)
- Designwerkzeug (1)
- Desktop (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diagramm (1)
- Diffie-Hellman-Algorithmus (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digital Storytelling (1)
- Digitale Bibliothek (1)
- Digitale Bilder (1)
- Digitale Steuerung (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Disaster Recovery (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- Displacement Mapping (1)
- Display (1)
- Distanz-Vektor (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Distribution <Linguistik> (1)
- Drahtloses Sensorsystem (1)
- Drahtloses lokales Netz (1)
- Drahtmodell (1)
- Dreidimensionale Bildverarbeitung (1)
- Dreidimensionale Visualisierung (1)
- Dreidimensionales Modell (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- Dynamische Programmierung (1)
- E-Business (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-Government (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Procurement (1)
- E-government (1)
- E-services (1)
- ECMS 2012 (1)
- EEG (1)
- EEPROM (1)
- EMIL-S (1)
- EPC (1)
- EPK (1)
- EPROM (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU (1)
- EU-Dienstleistungsrichtlinie (1)
- Echtzeit Anwendung (1)
- Echtzeit-Raytracer "Augenblick" (1)
- Echtzeitanimationssystem (1)
- Echtzeitfähigkeit (1)
- Echtzeitphysik (1)
- Eclipse (1)
- Ecore (1)
- Einchip-Computer (1)
- Einkauf (1)
- Einstellung (1)
- Electronic Commerce (1)
- Elektrischer Servomotor (1)
- Elektroencephalographie (1)
- Elektronische Bibliothek (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Emil (1)
- Empfehlung (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Empirische Sozialforschung (1)
- Emulation (1)
- Enhanced Representation (1)
- Enterprise Architect (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Information Management (1)
- Enterprise Resource Planning (1)
- Enterprise Systems (1)
- Enterprise-Resource-Planning (1)
- Entropia Universe (1)
- Entscheidungsprozess (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Entwurfssprache (1)
- Epipolargeometrie (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- Erstgebärende (1)
- Erweiterte Realität <Informatik> (1)
- Eulerian grid (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Binnenmarkt (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Event (1)
- Experiment (1)
- Explorationstransformation (1)
- Exporation Transform (1)
- Extension (1)
- Eye Tracking (1)
- Eye-Tracking (1)
- FPIC (1)
- Fabric Simulation (1)
- Facebook App (1)
- Facebook Application (1)
- Fachinformationssysteme (1)
- Fahrerassistenzsysteme (1)
- Fahrerlose Transportsysteme (1)
- Fahrsimulator (1)
- Fahrverhalten (1)
- Fahrzeugverhalten (1)
- Faktorenanalyse (1)
- Farbbildverarbeitung (1)
- Farbenlehre (1)
- Farbkalibrierung (1)
- Farbsymmetrie (1)
- Farbtheorie (1)
- Fast Convolution (1)
- FastSLAM Algorithmus (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fedora (1)
- Fehlerbaum (1)
- Fehlerverhütung (1)
- Fernsehtechnik (1)
- Fertilitaet (1)
- Feuer (1)
- Fiber Tracking (1)
- Field programmable gate array (1)
- Finanzberatung (1)
- Fingerprint Recognition (1)
- Fire (1)
- Firewall (1)
- First aid (1)
- FlexViz (1)
- Fließgewässer (1)
- Flow-Erlebnis (1)
- Flowing Inland Waters (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Flächenmodell (1)
- Foils <Programm> (1)
- Food Transportation System (1)
- Foodstuff (1)
- Forensik (1)
- Formal Methods (1)
- Formale Methoden (1)
- Forschungslandkarte (1)
- Fotoauswahl (1)
- Fourier (1)
- Fracturing (1)
- Fragebeantwortung (1)
- Fragmentshader (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Freiheitsgrad (1)
- Fresnel (1)
- Function Words (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- Funktionelle NMR-Tomographie (1)
- Föderiertes System (1)
- GDPR (1)
- GDS (1)
- GIRT (1)
- GMI-Controlling (1)
- GPGPU-Programmierung (1)
- GPU - Raycasting (1)
- GPU Programmierung (1)
- GPU basiert (1)
- GPU-Programmierung (1)
- GReQL 2 (1)
- GReQL2 (1)
- GReTL (1)
- GSM-Standard (1)
- GUPRO (1)
- Game Design (1)
- Gaps (1)
- Gaze-Tracking (1)
- GazeTheWeb (1)
- Geburt (1)
- Geburtshaus (1)
- Gebäudemodelle (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Geländemodell (1)
- Generative Model (1)
- Generative Modellierung (1)
- Geocaching (1)
- Geodaten (1)
- Geoinformation (1)
- Geometrie-Shader (1)
- Geometry (1)
- Geometry-Shader (1)
- Geometryshader (1)
- Gerichteter Graph (1)
- Germany (1)
- Gerstner (1)
- Geschäftsmodell (1)
- Geschäftsmodellinnovation (1)
- Geschäftsprozessmodell (1)
- Geschäftsprozessmodellierung (1)
- Gespann (1)
- Geste (1)
- Gesteninterpretation (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gittererzeugung (1)
- Glaukom (1)
- Glint Center Estimation Algorithmus (1)
- Gradientenanalyse (1)
- Grafik (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph (1)
- Graph Technology (1)
- GraphUML (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Graphikhardware (1)
- Graphpipes (1)
- Grounded Theory (1)
- Grundschule (1)
- Gruppenarbeit (1)
- Gupro (1)
- HDR-Bild (1)
- HDR-Bilder (1)
- HDR-Kamera (1)
- HNF-Algorithmus (1)
- HTML 5.0 (1)
- Halbschatten (1)
- Hand-based Gestures (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Haptik (1)
- Haskell (1)
- Hausgeburt (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Headtracking (1)
- Healthcare institution (1)
- Hebamme (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Herzerkrankungen (1)
- Heuristiken (1)
- High-Traffic (1)
- Hindernis (1)
- Historisierung (1)
- Hochgeschwindigkeitstracking (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hyperspace-Modell (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IK-Algorithmus (1)
- IM-Systeme (1)
- IP 6 (1)
- IP-Adressen (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Image (1)
- Image Processing (1)
- Image Understanding (1)
- Imitation Learning (1)
- InFO (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Inflation (1)
- Infobroker (1)
- Information (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Supply Chain (1)
- Information Visualization (1)
- Information system (1)
- Information-Retrieval (1)
- Informationsmanagementsystem (1)
- Informationsverlinkung (1)
- Informetrie (1)
- Innovation (1)
- Inpainting-Verfahren (1)
- Integration (1)
- Integriertes Informationssystem (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Interactive Visualizations (1)
- Interaktionselemente (1)
- Interaktive Visualisierungen (1)
- Interaktives Fernsehen (1)
- Interaktives Quiz (1)
- Interior Gateway Protokoll (1)
- Internet Voting (1)
- Internet of Things (1)
- Internetregulierung (1)
- Internetworking (1)
- Interoperability (1)
- Interpersonale Kommunikation (1)
- Interpretierer (1)
- Intranet-Zugang (1)
- Inverse Kinematik (1)
- Inverses Modell (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- J2EE (1)
- J2ME (1)
- JCryp-Tool (1)
- JGraph (1)
- JML (1)
- Jabber (1)
- Jabber <Programm> (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java-Quelltext (1)
- Java. Programmiersprache (1)
- JavaScript (1)
- Join (1)
- Jump'n Run-Spiel (1)
- KD-Bäume und Binary-Space-Partitioning-Bäume (1)
- KRHyper (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kamera Pose Tracking (1)
- Kamerakalibrierung (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Kartesisches Euler-Gitter (1)
- Kartesisches Gitter (1)
- Kartographie (1)
- Katadioptrisches Stereosystem (1)
- Katastrophenschutz (1)
- Kinect (1)
- Kinematik (1)
- Kirk-Coleman-Modell (1)
- Klassifikationsframework (1)
- Klausellogik (1)
- Kletterer (1)
- Knowledge (1)
- Knowledge Graph (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kohärenzanalyse (1)
- Kollisionserkennung (1)
- Koloskopie (1)
- Kommunikationsprotokoll (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Konturfindung (1)
- Konzept (1)
- Kookkurrenz (1)
- Kooperatives Informationssystem (1)
- Korruption (1)
- Korrutionsprävention (1)
- Kraftfahrzeug (1)
- Krankenhausinformationssystem (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Kundenmanagement (1)
- Landschaftsgestaltung (1)
- Landschaftsmodell (1)
- Lastenheft (1)
- Latent Negative (1)
- Layout (1)
- Layout <Mikroelektronik> (1)
- Leap-Motion (1)
- Lebensmittelallergie (1)
- Lehrer (1)
- Leichte Sprache (1)
- Leistungsmessung (1)
- Leitstandmodul (1)
- Lenkassistenzsystem (1)
- Lenkung (1)
- Lernen (1)
- Lernsoftware (1)
- Lernspiel (1)
- Lernumgebung (1)
- LexLearn (1)
- Lexikon (1)
- Lichttransport (1)
- Linespace (1)
- Linienkorrelationen (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Linking of Information (1)
- Linux (1)
- Literaturrecherche (1)
- Logging (1)
- Logik (1)
- Logischer Schluss (1)
- Lokale Bildmerkmale (1)
- Lokalisation (1)
- Lokalisierung (1)
- Lookup-Algorithmen (1)
- MIA (1)
- MMORPG (1)
- MP3 Player (1)
- MPEG-7 (1)
- MTASC (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Mann-Whitney (1)
- Manöver-Visualisierung (1)
- MapReduce (1)
- Markov Zufallsfelder (1)
- Marktanalyse (1)
- Maschinelles Sehen (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Matching (1)
- Matching-Verfahren (1)
- Matchingverfahren (1)
- Material Point Method (1)
- Materialmodell (1)
- Materie-Punkt-Methode (1)
- Maya (1)
- MeVisLab (1)
- Media Asset Management (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mehrbenutzer-Annotationssystem (1)
- Mehrprozessorsystem (1)
- Mensch-Maschine-Interaktion (1)
- Mensch-Maschine-Schnittstelle (1)
- Menschenmengen-Evakuierung (1)
- Merkmalsbewertung (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Merkmalsmanagement (1)
- Merkmalssynthese (1)
- Metamodel (1)
- Metric based Icp (1)
- Micro Finance (1)
- Migration (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikroskopie (1)
- Mikrozensus (1)
- Mind Maps (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Information Systems (1)
- Mobile Kommunikation (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Roboter (1)
- Mobile Robots (1)
- Mobile Ticketing (1)
- MobileFacets System (1)
- Mobiler Roboter (1)
- Mobiles Informatinssystem (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Mobiltelefon (1)
- Model View Presenter (1)
- Model-Driven Engineering (1)
- Modellieren (1)
- Modellierungstool (1)
- Modellierungswerkzeug (1)
- Moderierte Diskussionen (1)
- Modul (1)
- Modulare Softwarearchitektur (1)
- Modulares Softwaresystem (1)
- Modulhandbuch (1)
- Modulnetze (1)
- Monitoring (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensystem (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimediale Assets (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- Multivariate Datenanalyse (1)
- Musteranalyse (1)
- Myokard (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- NPO (1)
- NURBS (1)
- Nagios (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Network Virtualization (1)
- Networked Graphs (1)
- Netzhaut (1)
- Netzwerk Protokollen (1)
- Netzwerk Routing (1)
- Netzwerk Virtualisierung (1)
- Netzwerkanalyse (1)
- Netzwerkchip (1)
- Netzwerkmanagment (1)
- Netzwerkmonitoring (1)
- Netzwerkschicht (1)
- Netzwerktechnik (1)
- Netzwerküberwachung (1)
- Nicht-photorealistisches Rendering (1)
- Nintendo DS (1)
- Nintendo Wii Fernbedienung (1)
- Nonprofit-Organisation (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsanalyse (1)
- Nutzungsrechte (1)
- Nvidia CUDA (1)
- OCL <Programmiersprache> (1)
- OCR (1)
- ODRL (1)
- ODRLv2 (1)
- OGRE (1)
- ONDEX (1)
- OPNET (1)
- OSS (1)
- OVTK (1)
- OWL-DL (1)
- Oberflächenentwurf (1)
- Oberflächengestaltung (1)
- Oberflächenorientierung (1)
- Oberflächenstruktur (1)
- Object Recognition (1)
- Objective-C (1)
- Objektentfernung (1)
- Objekterkennung (1)
- Octree Textur (1)
- Offener Innovationsprozess (1)
- Office-Prozess (1)
- Oktalbaum (1)
- Oktonärbäume (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinesucht (1)
- Onlinewahl (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- Open Digital Rights Language (1)
- Open Source 3D Graphics Engine (1)
- Open Source Software (1)
- OpenCL (1)
- OpenVDB (1)
- OpenWrt (1)
- Opinion mining (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Optisches Mikroskop (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- Ornamentik (1)
- Ornamentklassifikation (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- PACS- Picture Archiving (1)
- PBRT (1)
- PDA (1)
- PEPPOL (1)
- PHP (1)
- POIs (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Pan European Public Procurement OnLine (1)
- Par (1)
- Parallelmanipulator (1)
- Partikel (1)
- Partikelsimulation (1)
- Partizipation (1)
- Path Tracing (1)
- Path transformation (1)
- Pattern Recognition (1)
- Perinatalbogen (1)
- Personal Key Infrastruktur (1)
- Personalised Information Systems (1)
- Personenidentifizierung (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Petri net (1)
- Petri-Netz-Theorie (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadtransformation (1)
- Pfadverfolgung (1)
- Pflichtenheft (1)
- Phantom Omni (1)
- Photographie (1)
- Physik (1)
- Physikengine (1)
- Physiksimulation (1)
- Planspiegel-System (1)
- Planspiel 2.0 (1)
- Plug in (1)
- Plugin (1)
- Point Rendering (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Pollenanalyse (1)
- Polypendetektion (1)
- Pose (1)
- Posebestimmung (1)
- Poseschätzung (1)
- Positionsbestimmung (1)
- PostgreSQL (1)
- Potenzialfeld (1)
- Power Law (1)
- Pre-Integration (1)
- Preisbildung (1)
- Prevention (1)
- Primus (1)
- Privacy (1)
- Privatvermögen (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programm (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programmierumgebung (1)
- Projekt iCity (1)
- Propositional Logic (1)
- Protocol (1)
- Prototyp (1)
- Prototype (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozesskette (1)
- Präsentation (1)
- Prävention (1)
- Psychohygiene (1)
- Public-Key-Infrastruktur (1)
- Pulsweitenmodulation (1)
- Punktkorrelationen (1)
- Pupil Center Estimation Algorithmus (1)
- Qt/C++ (1)
- Quality assessment system (1)
- Qualitätsmodell (1)
- Qualitätssicherung (1)
- Query Expansion (1)
- RCP (1)
- RDF Graphs (1)
- RDF modeling (1)
- RFCO (1)
- RIP-MTI Algorithmus (1)
- RIP-XT (1)
- RIPng (1)
- RMIS (1)
- Radiales System (1)
- Radiosity (1)
- Random Finite Sets (1)
- Rangtest (1)
- Ray Tracer (1)
- Ray casting (1)
- Ray-Casting (1)
- ReDSeeDS-Project (1)
- ReMiP (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Real-time computing (1)
- Realistisches Kameramodell (1)
- Rechtemanagement (1)
- Recommender System (1)
- Reddit (1)
- Referenzmetamodell (1)
- Reflections (1)
- Reflektionen (1)
- Reflexion (1)
- Regionenlabeling (1)
- Register (1)
- Registratur (1)
- Regler (1)
- Regression (1)
- Regulierung (1)
- Reisedokument (1)
- Relationale Datenbank (1)
- Relationales Datenbanksystem (1)
- Relativitätstheorie (1)
- Relevance Feedback (1)
- Repast (1)
- Requirement-Engineering (1)
- Requirements-Engineering (1)
- Rescue League (1)
- Rescue Robots (1)
- Rescueanalyser (1)
- Research Map (1)
- Resource Description Framework (RDF) (1)
- Restrukturierung (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Retinex-Algorithmus (1)
- Reverberation (1)
- Reverse Engineering (1)
- Rich Internet Application (1)
- Risikomanagement-Informationssysteme (1)
- Risk (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robbie (1)
- Robert P. Abelson (1)
- RoboCup (1)
- RoboCup Rescue (1)
- Robocup 2008 (1)
- Robotersystem (1)
- Route Aggregation (1)
- Route Planning (1)
- Routen-Aggregation (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing information protocol (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Routing- und Forwarding Tabellen (1)
- Routing-Loop (1)
- RuneScape (1)
- Rückfahrkamera (1)
- Rückverfolgbarkeit (1)
- Rückwärtsfahrt (1)
- SAC (1)
- SIFT-Algorithmus (1)
- SIFT-Merkmale (1)
- SIFT-Verfahren (1)
- SIMD (1)
- SNMP (1)
- SOA (1)
- SOA-Webservice (1)
- SOAMIG (1)
- SOMA (1)
- STOF Model (1)
- STOR (1)
- STP (1)
- SURF-Algorithmus (1)
- SVG (1)
- Sales Ageny (1)
- Sand (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Scanmatching (1)
- Schema Information (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schnelle Faltung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Search engine (1)
- Second Life (1)
- Security Routing (1)
- Segmentation (1)
- Semantic Data (1)
- Semantics (1)
- Semantisches Wiki (1)
- Sensor (1)
- Sensorensteuerung (1)
- Separating-Axis-Theorem (1)
- Serdar Ayalp (1)
- Serielle Schnittstelle (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-Oriented Architectures (SOA) (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Serviceroboter (1)
- Sesame (1)
- Shaderframework (1)
- Shaderhochsprache (1)
- Shaderprogramm (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Shattering (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheit Routing (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Simulationswerkzeug (1)
- Skript (1)
- Skript <Programm> (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Smartphone Applikation (1)
- SocSimNet (1)
- Social Games (1)
- Social Networking Platforms (1)
- Social Software (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software- Ergonomie (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwurf (1)
- Softwareergonomie (1)
- Softwaremodellierung (1)
- Softwarespezifikation (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziale Netzwerke (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Sozialwissenschaftliche Simulation (1)
- Soziooekonomisches Panel (1)
- Spam-Mail (1)
- Spannender Baum (1)
- Spanning Tree (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spektrale Bildgewinnung (1)
- Spezifikation (1)
- Spieleentwicklung (1)
- SpoGa (1)
- Sport (1)
- Sports (1)
- Sprachverarbeitung (1)
- Sprechtherapie (1)
- Staat (1)
- Stadtmodelle (1)
- Standortbestimmung (1)
- Statische Analyse (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Statistische Analyse (1)
- Staukontrollmechanismen (1)
- Stereobildfolgen (1)
- Stereografie (1)
- Stereoskopie (1)
- Stewart-Plattform (1)
- Stilisierung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Stomp (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Suchmaschine (1)
- Supernetting (1)
- Support System (1)
- Survey Research (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- Systembiologie (1)
- Szeneneditor (1)
- Szenengraph (1)
- TAP (1)
- TBox (1)
- TCP/IP (1)
- TGraphen (1)
- TQM (1)
- TRECVID (1)
- TRIZ (1)
- Tableau <Logik> (1)
- Tableau Calculus (1)
- Tageslichtprojektor (1)
- Taktstraße (1)
- Tanzspiel (1)
- Tarrain Klassifikation (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Taxonomie (1)
- Taxonomy (1)
- Technologiemanagement (1)
- Technologischer Raum (1)
- Telemedizin (1)
- Temperaturmessung (1)
- Temporale Datenhaltung (1)
- Tenneco Automotive (1)
- Tesseract (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Textur (1)
- Texturierung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Thunderbird <Programm> (1)
- Tiefenbild (1)
- Tiefenkarte (1)
- Tokens (1)
- Ton (1)
- Tone Mapping (1)
- Tone-Mapping (1)
- Tone-Mapping-Verfahren (1)
- Tonemapping (1)
- Tonemapping-Verfahren (1)
- Tool Evaluation (1)
- Total Quality Management (1)
- Touchscreen (1)
- Tourismus (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Trackingsystem (1)
- Trajektorien (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transfer function (1)
- Transferfunction (1)
- Translation (1)
- Transport (1)
- Transportschicht (1)
- Triangulierung (1)
- Triangulierungsverfahren (1)
- Type System (1)
- Type system (1)
- UML Activity Diagrams (1)
- UML Aktivitätsdiagramm (1)
- URM (1)
- USARSim (1)
- USB (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Umgebungslicht (1)
- Ungarische Methode (1)
- Unified Modeling Language (UML ) (1)
- Uniforme Raumunterteilung (1)
- United Internet AG (1)
- Universitäre Lehrveranstaltung (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Unternehmensnetzwerke (1)
- Unterricht (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- User Interface (1)
- VCD (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VIACOBI (1)
- VLAN (1)
- VST (1)
- VTP (1)
- Validierung (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verbraucherforschung (1)
- Verifikation (1)
- Verortung (1)
- Verteilte Systeme (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Verwaltungsautomation (1)
- Video (1)
- Video-Installation (1)
- Videospiel (1)
- Videospiele (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Company Dossier (1)
- Virtual Networks (1)
- Virtual Square (1)
- Virtual characters (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtuelle Menschen (1)
- Virtuelle Welten (1)
- Virtuelle Ökonomien (1)
- Virtueller Raum (1)
- Virtuelles Netz (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Visualisierungstechniken (1)
- Visuelle Installation (1)
- Visuelle Odometrie (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- Volume Raycasting (1)
- Volume Rendering (1)
- Volumenmodell (1)
- Volumenvisualisierung (1)
- Vorbeugung (1)
- Vorliebe (1)
- Vorwärtsmodell (1)
- Voxel (1)
- Voxelisierung (1)
- W-LAN (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Water Surface Temperature (1)
- Wavelet (1)
- Web (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Web3D (1)
- Webanwendung (1)
- Weblog (1)
- Webseiten (1)
- Webserver (1)
- Webservice Sail (1)
- Website (1)
- Wechselkursänderung (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Wellen (1)
- Werbeform (1)
- Wertschöpfungskette (1)
- Whiteboard (1)
- WiFi Fingerprinting (1)
- Wiederhall (1)
- Wii-Balance Board (1)
- Wii-Kamera (1)
- Wilcoxon-Rangsummentest (1)
- Wireless Sensor Networks (1)
- Wireshark (1)
- Wirtschaftsprojekt (1)
- Wissensbasis (1)
- Wissenskompilation (1)
- Wissensvermittlung (1)
- Wolkensimulation (1)
- Word-of-Mouth (1)
- Workflow (1)
- World Wide Web (1)
- Wrapping (1)
- X-Cosim (1)
- XML-Dokument (1)
- XMPP (1)
- XSD (1)
- XTpeer (1)
- Xcode (1)
- YAWL (1)
- You-messages (1)
- Zerbrechen (1)
- Zertifikat (1)
- Zirkumskription (1)
- Zufriedenheit (1)
- Zukunftsszenario (1)
- accelerometer (1)
- acceptance (1)
- activation functions of neurons (1)
- adaptive resonance theory (1)
- advertisements (1)
- agent (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- amtliche Haushaltsbefragungen (1)
- andLinux (1)
- andLinux. (1)
- android (1)
- application programming interfaces (1)
- archiving (1)
- area light (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- attitude (1)
- augmented reality (1)
- automated theorem prover (1)
- automatisierte Videoüberwachung (1)
- bachelor (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process (1)
- business process management (1)
- by-stander effect (1)
- camera calibration (1)
- categorisation (1)
- co-occurrence (1)
- collaboration (1)
- collaborative technologies (1)
- color image processing (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- convergence analysis (1)
- core ontologies (1)
- crowd evacuation (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- data-mining (1)
- deductive (1)
- depth map (1)
- description logic (1)
- deutsche Hochschulen (1)
- deutschsprachiger Markt (1)
- development (1)
- diabetic retinopathy (1)
- diagram (1)
- diffusion (1)
- digital library (1)
- directed acyclic graphs (1)
- disparity map (1)
- distinct object identifiers (1)
- distributed information systems (1)
- dreidimensionale Computergraphik (1)
- dynamic programming (1)
- e-Commerce (1)
- e-ID (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGroupware (1)
- eID (1)
- ePA (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- ediv (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- engine (1)
- estimation of algorithm efficiency (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- evaluation (1)
- event (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- experiment (1)
- eye tracking (1)
- faceted search (1)
- factor analysis (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- general purpose (1)
- geometry shader (1)
- grUML (1)
- gradient method of training weight coefficients (1)
- graphics card (1)
- grassland (1)
- groupwork (1)
- high-traffic (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- iSearch (1)
- id card (1)
- image semantics (1)
- indirect lighting (1)
- indirektes Licht (1)
- information flow regulation (1)
- information retrieval (1)
- interaction (1)
- interactive (1)
- interactive application (1)
- interaktive Applikation (1)
- interaktiven (1)
- jOWL (1)
- java (1)
- jump'n run game (1)
- keystroke biometric recognition (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- kollaboratives Lernen (1)
- landmarks (1)
- legacy software (1)
- line space (1)
- lineare Algebra (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mann-whitney (1)
- markerless tracking (1)
- master (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- medizinische Bilddaten (1)
- menschliches Auge (1)
- metadata formats (1)
- metadata standards (1)
- metasearch engine (1)
- methodology (1)
- metrics (1)
- micro-agent (1)
- midwife (1)
- migration (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model (1)
- model generation (1)
- model-driven engineering (1)
- modellgetriebene Softwareentwicklung (1)
- modulares System (1)
- module handbook (1)
- morphological operators (1)
- movement (1)
- multiagent systems (1)
- multidimensional (1)
- multidimensional transfer function (1)
- multidimensionale Transferfunktion (1)
- multiprocessing (1)
- myAnnotations (1)
- nPA (1)
- natural language generation (1)
- natural language processing (1)
- natürliche Sprache (1)
- networks (1)
- neural (1)
- nichtamtliche Haushaltsbefragungen (1)
- octree texture (1)
- official household surveys (1)
- online survey (1)
- out-of-hospital birth (1)
- parallel calculations (1)
- parallel computing (1)
- path planning (1)
- perinatal (1)
- person (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- physical interaction (1)
- physics (1)
- physische Interaktion (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- polyp detection (1)
- pregnancy (1)
- privacy (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- projektives Malen (1)
- psychisches Verhalten (1)
- psychological behavior (1)
- public key infrastructure (1)
- quality (1)
- quality assurance (1)
- question answering (1)
- ray casting (1)
- raycasting (1)
- raytracing (1)
- real-time computing (1)
- realtime physics (1)
- recurrent (1)
- reference meta model (1)
- reflection (1)
- refraction (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- relativity (1)
- requirements analysis (1)
- retina fundus images (1)
- revenue management (1)
- rich multimedia presentations (1)
- rigid body (1)
- rip (1)
- risk (1)
- rmti (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- search engine (1)
- security requirements (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sensor control (1)
- sequent calculi (1)
- shader (1)
- shiq (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- soft shadow (1)
- software engineering (1)
- stereo vision (1)
- stereotracking (1)
- summative evaluation (1)
- survey (1)
- survey in Koblenz (1)
- syntaktische Analyse (1)
- tag recommendation (1)
- tagging (1)
- taxonomy (1)
- texturing (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transform feedback (1)
- transformation (1)
- travel document (1)
- unique name assumption (1)
- unofficial household surveys (1)
- usability study (1)
- usage-mining (1)
- vegetation modeling (1)
- verification (1)
- video game (1)
- video games (1)
- videogames (1)
- virtual goods (1)
- virtual human (1)
- virtual network user mode linux (1)
- virtuelle Netze (1)
- vnuml (1)
- volume rendering (1)
- volume visualization (1)
- volumenrendering (1)
- voxelization (1)
- water surface (1)
- waves (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
- xtpeer (1)
- Öffentliche Verwaltung (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
In dieser wissenschaftlichen Ausarbeitung werden auf Basis einer Literaturrecherche Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen identifiziert und beschrieben. Darüber hinaus werden im Verlauf der Arbeit verschiedene Modelle adaptiert, erstellt und fortlaufend erweitert. Dieser Prozess mündet in einem integrativen Modell. Die Grundproblematik besteht in der Notwendigkeit externe Wissensquellen in die eigenen Betriebsabläufe einfließen zu lassen. Dieses Modell der Open Innovation wird in der Literatur besonders für kleine und mittelständische Unternehmen als unausweichlich angesehen, um konkurrenzfähig zu bleiben. Die Gründe dafür werden ebenso wie die Möglichkeiten einer erfolgreichen Zusammenarbeit dargelegt und beschrieben. Deutschland weist im internationalen Vergleich eine verhältnismäßig hohe Beteiligung an Wissens- und Technologietransfers auf. Dennoch geht eine Vielzahl von Unternehmen davon aus, ihre Institution würde nicht von Wissensverwertungsmaßnahmen profitieren.
In der Literatur existiert kein Modell, welches die Verwertungsschritte und die Anreize für Universitäten und Unternehmen verbindet. Somit schließt diese Ausarbeitung die identifizierte Lücke durch das in Kapitel 4.4 abgebildete integrative Modell. Durch die ausformulierten Anreizfaktoren können sowohl Universitäten und Unternehmen als auch deren Mitarbeiter erkennen, ob eine Zusammenarbeit bezüglich eines aktuellen Forschungsthemas sinnvoll erscheint.
Während auf Basis der Literaturrecherche zunächst theoretische Grundlagen definiert werden, folgt im Anschluss eine Schilderung der Anreizfaktoren der Wissensverwertung. Dabei wird zwischen materiellen und immateriellen Anreizen unterschieden. Diese Differenzierung und die Unterscheidung von extrinsischer und intrinsischer Motivation sind im Hinblick auf die folgenden Ergebnisse von großer Bedeutung. Infolgedessen wird ein Wissensverwertungsmodell vorgestellt und auf den vorliegenden Sachverhalt angepasst, bevor mit der Erweiterung des Modells um eine zusätzliche Perspektive und dem Hinzufügen der Anreizfaktoren begonnen wird.
Durch das beschriebene Vorgehen entsteht ein integratives Modell, das sowohl für Universitäten und deren Wissenschaftler als auch für kleine und mittelständische Unternehmen und deren Mitarbeiter von Bedeutung sein kann.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.
The thesis develops and evaluates a hypothetical model of the factors that influence user acceptance of weblog technology. Previous acceptance studies are reviewed, and the various models employed are discussed. The eventual model is based on the technology acceptance model (TAM) by Davis et al. It conceptualizes and operationalizes a quantitative survey conducted by means of an online questionnaire, strictly from a user perspective. Finally, it is tested and validated by applying methods of data analysis.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.
The Apple ][ computer was one of the frst three completely assembled systems on the market. It was sold several million times from april 1977 to 1993. This 8 bit home computer was developed by Steve Wozniak and Steve Jobs. They paved the way for the Apple Macintosh computer and the nowadays well known brand Apple with its products.
This thesis describes the implementation of a software emulator for the complete Apple ][ computer system on a single Atmel AVR microcontroller unit (MCU). The greatest challenge consists of the fact that the MCU has only a slightly higher clock speed as the Apple ][. This requires an efcient emulation of the CPU and the memory management, which will be covered later on along with the runtime environment controlling the emulator. Furthermore the hardware implementation into a handheld prototype will be shown.
In summary this thesis presents a successful development of a portable Apple ][ emulator covering all aspects from software design over hardware design ending up in a prototype.
This paper offers an informal overview and discussion on first order predicate logic reasoning systems together with a description of applications which are carried out in the Artificial Intelligence Research Group of the University in Koblenz. Furthermore the technique of knowledge compilation is shortly introduced.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
Augmented Reality ist eine neuartige, auf vielen Gebieten einsetzbare Technologie. Eines dieser Gebiete ist die Touristeninformation. Hier ermöglicht die AR dem Anwender eine schier endlose Fülle der verschiedensten Möglichkeiten. Mit Ihrer Hilfe kann der Benutzer nicht nur die Zeit bereisen, er kann auch Unsichtbares sehen. Doch stellt sich die Frage, ob die AR auch für weiterreichende Zwecke geeignet ist. Ist es möglich mit ihrer Hilfe Wissen nachhaltig zu vermitteln? Und wenn ja, wie kann dies geschehen? In althergebrachter Form von Texten und Bildern, oder auf interaktive und spielerische Weise? Was muß beachtet werden bei dem Versuch eine AR Anwendung für die Wissensübermittlung zu erstellen? Wie kann der Benutzer mit Ihr umgehen? Weiss der Benutzer später auch wirklich mehr? Die vorliegende Diplomarbeit geht diesen Fragen nach, indem sie zuerst der AR einen genaueren Blick widmet. Sie betrachtet die möglichen einsetzbaren Medien und gibt Vorschläge für interaktive Anwendungen, die mit Hilfe von AR ausgeführt werden. Zum Schluß untersucht sie anhand einer erstellten Beispielanwendung, ob der Benutzer mit Hilfe der AR etwas lernen und auch behalten kann.
Die nächste Generation des World Wide Web, das Semantic Web, erlaubt Benutzern, Unmengen an Informationen über die Grenzen von Webseiten und Anwendungen hinaus zu veröffentlichen und auszutauschen. Die Prinzipien von Linked Data beschreiben Konventionen, um diese Informationen maschinenlesbar zu veröffentlichen. Obwohl es sich aktuell meist um Linked Open Data handelt, deren Verbreitung nicht beschränkt, sondern explizit erwünscht ist, existieren viele Anwendungsfälle, in denen der Zugriff auf Linked Data in Resource Description Framework (RDF) Repositories regelbar sein soll. Bisher existieren lediglich Ansätze für die Lösung dieser Problemstellung, weshalb die Veröffentlichung von vertraulichen Inhalten mittels Linked Data bisher nicht möglich war.
Aktuell können schützenswerte Informationen nur mit Hilfe eines externen Betreibers kontrolliert veröffentlicht werden. Dabei werden alle Daten auf dessen System abgelegt und verwaltet. Für einen wirksamen Schutz sind weitere Zugriffsrichtlinien, Authentifizierung von Nutzern sowie eine sichere Datenablage notwendig.
Beispiele für ein solches Szenario finden sich bei den sozialen Netzwerken wie Facebook oder StudiVZ. Die Authentifizierung aller Nutzer findet über eine zentrale Webseite statt. Anschließend kann beispielsweise über eine Administrationsseite der Zugriff auf Informationen für bestimmte Nutzergruppen definiert werden. Trotz der aufgezeigten Schutzmechanismen hat der Betreiber selbst immer Zugriff auf die Daten und Inhalte aller Nutzer.
Dieser Zustand ist nicht zufriedenstellend.
Die Idee des Semantic Webs stellt einen alternativen Ansatz zur Verfügung. Der Nutzer legt seine Daten an einer von ihm kontrollierten Stelle ab, beispielsweise auf seinem privaten Server. Im Gegensatz zum zuvor vorgestellten Szenario ist somit jeder Nutzer selbst für Kontrollmechanismen wie Authentifizierung und Zugriffsrichtlinien verantwortlich.
Innerhalb der vorliegenden Arbeit wird ein Framework konzeptioniert und entworfen, welches es mit Hilfe von Regeln erlaubt, den Zugriff auf RDF-Repositories zu beschränken. In Kapitel 2 werden zunächst die bereits existierenden Ansätze für die Zugriffssteuerung vertraulicher Daten im Sematic Web vorgestellt. Des Weiteren werden in Kapitel 3 grundlegende Mechanismen und Techniken erläutert, welche in dieser Arbeit Verwendung finden. In Kapitel 4 wird die Problemstellung konkretisiert und anhand eines Beispielszenarios analysiert.
Nachdem Anforderungen und Ansprüche erhoben sind, werden in Kapitel 6 verschiedene Lösungsansätze, eine erste Implementierung und ein Prototyp vorgestellt. Abschließend werden die Ergebnisse der Arbeit und die resultierenden Ausblicke in Kapitel 7 zusammengefasst.
Aspekt-Orientierung in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Globale Beleuchtungssimulationen versuchen die physikalischen Eigenschaften von Licht und dessen Ausbreitung möglichst korrekt zu berechnen. Dabei werden diese üblicherweise im dreidimensionalen Objektraum berechnet und sind deshalb sehr rechenintensiv und von der Anzahl der Polygone der Szene abhängig. Objektraum-basierte Verfahren ermöglichen durch komlexe Berechnungen allerdings auch gute Annährungen physikalisch korrekter Beleuchtungen. Die Beleuchtungsberechnung in den Bildraum zu verlagern hat aber den großen Vorteil, dass die Berechnung hier unabhängig von der Größe und Komplexität der Szene durchführbar ist. Einzig die Auflösung entscheidet über den Rechenaufwand. Dieser Geschwindigkeitsvorteil beinhaltet jedoch einen Kompromiss was die physikalische Korrektheit der Beleuchtungssimulation angeht. Bei bisherigen Bildraum-Verfahren war es nicht möglich, für die Kamera nicht sichtbare Teile der Szene und deren Beleuchtungsinformationen, in die Berechnung mit einzubeziehen. Dies erscheint logisch, da über Geometrie die aus Sicht der Kamera nicht eingefangen wurde, im Bildraum zunächst keinerlei Informationen zur Verfügung stehen. Ein bekanntes Beispiel zur Annährung einer globalen Beleuchtung im Bildraum ist das Verfahren "Screen Space Ambient Occlusion". Dieses liefert zwar sehr gut Selbstverschattungen und wirkt dadurch realitätsnah, erzeugt aber keinen korrekten Lichtaustausch. Da die Beleuchtung von dem Inhalt des aktuellen Bildausschnitts abhängig ist, entstehen visuelle Artefakte, die vor allem bei Kamerabewegungen störend auffallen. Ziel der Studienarbeit ist es daher diese Artefakte durch die Verwendungen von Textur-Atlanten zu vermeiden. Dies wird durch eine Bildraum-basierte Beleuchtungssimulation ermöglicht, die die gesamte Szene zur Berechnung der Beleuchtung miteinbezieht und nicht nur die Sicht der Kamera. Dabei wird in einem Textur-Atlas die gesamte Szene gespeichert.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Ziel dieser Diplomarbeit ist es, katadioptrische Stereosysteme aufzubauen und zu testen. Hierfür gilt es, die Komponenten auszuwählen und zu beschaffen. Es soll ein System mit einem Planspiegel und eines mit einem gekrümmten Spiegel aufgebaut werden. Die Vorgehensweise in beiden Fällen unterscheidet sich jedoch deutlich voneinander. Das Planspiegel-System wird unter den Vorraussetzungen angefertigt, dass es möglichst kostengünstig ist und bietet sich vor allem deshalb für eine solches Vorgehen an, da es mit handelsüblichen Komponenten realisierbar ist. Die Verwendung dieser Komponenten bringt allerdings Einschränkungen in der Bildqualität mit sich. Hinzu kommt noch die Tatsache, dass es sich um eine Computational Camera mit geringer Komplexität handelt, da es direkt rektifizierte Ergebnisse liefert und aufgrund dessen leicht zu implementieren ist. Diese Kombination von Eigenschaften macht es zu einem geeigneten Kandidaten für eine solche Herangehensweise. Das radiale System wird hingegen unter der Prämisse maximaler Qualität gebaut. Der verwendete Spiegel ist eine Einzelanfertigung und zusätzlich wird ein zirkuläres Fisheye-Objektiv benötigt, was die Kosten für ein solches System relativ hoch werden lässt. Des Weiteren ist die Dekodierung der Rohaufnahmen deutlich komplexer, als bei den bereits rektifizierten Aufnahmen des Planspiegel-Systems. Nach erfolgreichem Aufbau der beiden Gesamtsysteme sollen diese unter qualitativen Aspekten miteinander verglichen werden.
Ein Kinect-Sensor verfügt über die Fähigkeit, gleichzeitig Farb- und Tiefenbilder aufzunehmen. In dieser Bachelorarbeit wird versucht, das Tiefenbild zu nutzen, um Beleuchtungsinformationen und Materialeigenschaften im Farbbild zu manipulieren. Die vorgestellten Verfahren zur Beleuchtungs- und Materialmanipulation benötigen eine Lichtsimulation der Lichtverhältnisse zum Zeitpunkt der Aufnahme und übertragen dann Informationen aus einer neuen Lichtsimulation direkt zurück in das Farbbild. Da die Simulationen auf einem dreidimensionalen Modell durchgeführt werden, wird nach einem Weg gesucht, ein solches aus einem einzigen Tiefenbild zu erzeugen. Dabei wird auf Probleme der Tiefendatenerfassung des Kinect-Sensors eingegangen. Es wird ein Editor entwickelt, mit dem Beleuchtungsund Materialmanipulationen möglich gemacht werden sollen. Zum Erzeugen einer Lichtsimulation werden einfache, echtzeitfähige Renderingverfahren und Beleuchtungsmodelle vorgestellt. Mit ihnen werden neue Beleuchtungssituationen, Schatten und Spiegelungen in das Farbbild eingefügt. Einfache Umgebungen mit definierten Lichtverhältnissen werden in Experimenten manipuliert, um Grenzen und Möglichkeiten des Sensors und der verwendeten Verfahren aufzuzeigen.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Diese Studienarbeit beschäftigt sich mit der Entwicklung einer Extension für Mozilla Thunderbird, welche direkt in den Text einer Email eingebettete strukturierte Informationen (wie z.B. Termine, Kontaktdaten) automatisch erkennt und es dem Benutzer ermöglicht, diese in weiteren Anwendungen weiter zu verwenden. Es werden Überlegungen zur Usability und möglichen weiteren Entwicklungen vorgestellt, sowie der Code des Prototyp genauer aufgezeigt.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
Die vorliegende Bachelorarbeit untersucht anhand eines Experiments die Auswirkungen dreier Online-Werbeformen (Banner, Streaming Ad und Interstitial) auf die Einstellung, Erinnerung und Kaufabsicht. Sie gibt eine Einführung in die Internetwerbung und die untersuchten Werbeformen sowie einen Überblick über die drei theoretischen Untersuchungsschwerpunkte. Das Experiment wurde während einem Online-Fragebogen durchgeführt. Es nahmen 358 Probanden teil. Die erhobenen Daten wurden mittels Korrelationsmatrizen und der univariaten Varianzanalyse auf Differenzen geprüft.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Im Rahmen der Glaukomdiagnostik sind Größe und Position des Sehnervkopfes wichtige Parameter zur Klassifikation des Auges. Das Finden und exakte Markieren der Papille ist ein subjektiver Vorgang und kann von Arzt zu Arzt stark variieren. Ziel der Arbeit ist die Entwicklung eines automatischen Verfahrens zur Detektion der Papille. Zunächst wird der medizinische Hintergrund erläutert (Aufbau des Auges, Glaukom) und das bildgebende Verfahren, der Heidelberg Retina Tomograph, dargestellt. Nach einer Diskussion bisheriger Ansätze zur Detektion der Papille wird ein eigenes Verfahren entwickelt und detailliert beschrieben. Für bei der Implementation aufgetretene Probleme werden Ansätze zur Optimierung vorgeschlagen.
Automatische und manuelle Informationszusammenstellung in der Nachbearbeitung von Reality Szenarien
(2007)
Als thematische Fortsetzung der beiden vorangegangenen Diplomarbeiten "Abstrakte Interaktionskonzepte in Erweiterten Realitäten" von Philipp Schaer und "Vor- und Nachbereitung einer Augmented Reality Applikation" von Anke Schneider im Rahmen des Mitte 2005 gegründeten Forschungsprojektes "Enhanced Reality" an der Universität Koblenz, befasste sich diese Arbeit mit dem Aufbau und der Informationszusammenstellung in der Nachbereitungsphase eines Augmented Reality Szenarios. Als kurzen Einstieg in das Forschungsgebiet der Augmented Reality diente eine Einordnung und Begriffsklärung sowie die Vorstellung verschiedener Anwendungsfelder zu Beginn der Arbeit. Danach wurde die Bedeutung der einzelnen Phasen Vorbereitung, AR-Tour und Nachbereitung im allgemeinen Ablauf eines AR Szenarios erläutert und versucht, Parallelen zum dramaturgischen Konzept des Digital Storytelling herzustellen. Die Nachbereitung im Sinne einer neuen Vorbereitungsphase anzulegen, wurde dabei als entscheidender Faktor zur positiven Beeinflussung des Spannungsverlaufs innerhalb eines AR Szenarios bewertet. Anhand von drei aktuellen Beispielen zu AR Edutainment bzw. Eduventure Projekten konnte die Idee und die Art der Wissens- und Informationsvermittlung, die durch eine AR-Tour stattfinden soll, näher gebracht werden. Hauptaugenmerk lag dabei auf der Herausstellung eines Ansatzes für eine mögliche Nachbereitungsphase, die bei den vorgestellten Projekten bisher noch keine Berücksichtigung gefunden hat.
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.