004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (73)
- Dissertation (33)
- Masterarbeit (29)
- Diplomarbeit (27)
- Bachelorarbeit (25)
- Studienarbeit (11)
- Konferenzveröffentlichung (4)
- Habilitation (1)
Sprache
- Englisch (203) (entfernen)
Schlagworte
- Software Engineering (6)
- Bluetooth (4)
- ontology (4)
- API (3)
- E-KRHyper (3)
- Enterprise 2.0 (3)
- Knowledge Compilation (3)
- OWL (3)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Ontology (3)
- Semantic Web (3)
- UML (3)
- University (3)
- classification (3)
- computer clusters (3)
- model-based (3)
- Abduktion <Logik> (2)
- Akzeptanz (2)
- Annotation (2)
- Beschaffung (2)
- Bildverarbeitung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer Graphics (2)
- Computergraphik (2)
- Computersimulation (2)
- Data Mining (2)
- Equality (2)
- Formale Ontologie (2)
- Graphik (2)
- Line Space (2)
- Linked Open Data (2)
- Logistik (2)
- Maschinelles Lernen (2)
- Modellgetriebene Entwicklung (2)
- Netzwerk (2)
- Neuronales Netz (2)
- OpenGL (2)
- Petri Nets (2)
- Petri-Netze (2)
- Propagation (2)
- RDF (2)
- Schlussfolgern (2)
- Serviceorientierte Architektur (2)
- Softwaretest (2)
- Theorem Proving (2)
- Usability (2)
- Volumen-Rendering (2)
- Wikipedia (2)
- XML (2)
- artificial neural networks (2)
- constraint logic programming (2)
- governance (2)
- hybrid automata (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- parallel algorithms (2)
- probability propagation nets (2)
- semantics (2)
- social media (2)
- social simulation (2)
- 101companies (1)
- 2019 European Parliament Election (1)
- 8C model (1)
- ABox (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Adaptation (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Algolib (1)
- Algorithm Engineering (1)
- Amazon Mechanical Turks (1)
- Analysis of social platform (1)
- Android <Systemplattform> (1)
- Anpassung (1)
- Architektur <Informatik> (1)
- Archivierung (1)
- Articles for Deletion (1)
- Association Rules (1)
- Auditing (1)
- Augenbewegung (1)
- Augmented Reality (1)
- Auslese (1)
- Auswahl (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatische Klassifikation (1)
- Automatisches Beweisverfahren (1)
- Automotive Systems (1)
- Avatar (1)
- B2B Integration (1)
- BPM (1)
- BPMN (1)
- BPMS (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beschreibungslogik (1)
- Bildanalyse (1)
- Bildsegmentierung (1)
- Biometric Authentication (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Business Collaboration (1)
- Business Process Modeling (1)
- Bürgerbeiteiligung (1)
- C++ (1)
- CSCW (1)
- Calculus (1)
- Casual Games (1)
- CodeBlue (1)
- Cold Chain (1)
- Coloskopie (1)
- Communication Networks (1)
- Computational biology (1)
- Compute Shader (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computeranimation (1)
- Computersicherheit (1)
- Computerspiel (1)
- Computertomografie (1)
- Computervisualistik (1)
- Conference (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- DPLL procedure (1)
- DTI (1)
- Darmpolyp (1)
- Data compression (1)
- Data manipulation (1)
- Data protection (1)
- Datenaustausch (1)
- Datenkompression (1)
- Datenschutz (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digitale Bilder (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Dokumentation (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Partizipation (1)
- E-government (1)
- E-participation (1)
- E-services (1)
- ECMS 2012 (1)
- EU (1)
- Eclipse <Programmierumgebung> (1)
- Einkauf (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Emulation (1)
- Enhanced Reality (1)
- Enhanced Representation (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Eye Tracking (1)
- Eyetracking (1)
- Fabric Simulation (1)
- Facebook Application (1)
- Fahrverhalten (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fehlerbaum (1)
- Fiber Tracking (1)
- Fingerprint Recognition (1)
- First aid (1)
- FlexViz (1)
- Food Transportation System (1)
- Foodstuff (1)
- Formal Methods (1)
- Formale Methoden (1)
- Fotoauswahl (1)
- Fragebeantwortung (1)
- Function Words (1)
- GDPR (1)
- GDS (1)
- GPGPU (1)
- GPS (1)
- GReQL2 (1)
- GSM-Standard (1)
- GazeTheWeb (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Generative Model (1)
- Geocaching (1)
- Gerichteter Graph (1)
- Germany (1)
- Grafikkarte (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Grounded Theory (1)
- Gruppenarbeit (1)
- Hand-based Gestures (1)
- Haskell (1)
- Healthcare institution (1)
- Hindernis (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- Image (1)
- Image Processing (1)
- Image Understanding (1)
- Imitation Learning (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Informatik (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Retrieval (1)
- Information system (1)
- Inpainting-Verfahren (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Internet (1)
- Internet Voting (1)
- Internet of Things (1)
- Interoperability (1)
- Interoperabilität (1)
- JGraLab (1)
- JML (1)
- Java (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- KRHyper (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kollaboration (1)
- Konturfindung (1)
- Konzept (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Latent Negative (1)
- Leichte Sprache (1)
- Linespace (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Logik (1)
- Logischer Schluss (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- MapReduce (1)
- Maschinelles Sehen (1)
- Matching (1)
- MeVisLab (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Mensch-Maschine-Interaktion (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Metamodel (1)
- Migration (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile Information Systems (1)
- Model-Driven Engineering (1)
- Modellfahrzeug (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Netzwerk Routing (1)
- Netzwerkanalyse (1)
- OCL <Programmiersprache> (1)
- ODRL (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- Object Recognition (1)
- Objektentfernung (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- OpenGL Shading Language (1)
- OpenVDB (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- PEPPOL (1)
- POIs (1)
- Pan European Public Procurement OnLine (1)
- Path Tracing (1)
- Pattern Recognition (1)
- Personalised Information Systems (1)
- Petri net (1)
- Petri-Netz (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadverfolgung (1)
- Photographie (1)
- Plug in (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmierung (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prädikatenlogik (1)
- Quality assessment system (1)
- Query Expansion (1)
- RDF Graphs (1)
- RDF modeling (1)
- Random Finite Sets (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Recommender System (1)
- Reddit (1)
- Reengineering (1)
- Reflections (1)
- Reflektionen (1)
- Regionenlabeling (1)
- Registratur (1)
- Relevance Feedback (1)
- Rendering (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Reverse Engineering (1)
- RoboCup (1)
- Robocup 2008 (1)
- Roboter (1)
- Robotik (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Rückverfolgbarkeit (1)
- SOA (1)
- SPARQL (1)
- STOF Model (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Schema Information (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Segmentation (1)
- Segmentierung (1)
- Semantic Data (1)
- Semantics (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Shader (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwicklung (1)
- Softwareergonomie (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Simulation (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spezifikation (1)
- Steuerung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Support System (1)
- Survey Research (1)
- Systembiologie (1)
- TAP (1)
- TBox (1)
- TRECVID (1)
- Tableau Calculus (1)
- Taxonomy (1)
- Technologischer Raum (1)
- Tenneco Automotive (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Transferfunction (1)
- Transferfunktion (1)
- Transport (1)
- Type System (1)
- Type system (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Unified Modeling Language (UML ) (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- VCD (1)
- VIACOBI (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Verifikation (1)
- Virtual Company Dossier (1)
- Virtual characters (1)
- Virtuelle Realität (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Wavelet (1)
- Web (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web Services (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Weblog (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wissensbasis (1)
- Wissensmanagement (1)
- Word-of-Mouth (1)
- World Wide Web 2.0 (1)
- Wrapping (1)
- You-messages (1)
- acceptance (1)
- adaptive resonance theory (1)
- application programming interfaces (1)
- archiving (1)
- artifcial neural networks (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- automated theorem prover (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- categorisation (1)
- collaboration (1)
- collaborative technologies (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- core ontologies (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- deductive (1)
- description logic (1)
- deutsche Hochschulen (1)
- diabetic retinopathy (1)
- diffusion (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- distributed information systems (1)
- e-Commerce (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGovernment (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- estimation of algorithm efficiency (1)
- evaluation (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- eye tracking (1)
- faceted search (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- gradient method of training weight coefficients (1)
- grassland (1)
- groupwork (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- image processing (1)
- image semantics (1)
- information retrieval (1)
- information system (1)
- jOWL (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- landmarks (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- methodology (1)
- micro-agent (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model generation (1)
- model-driven engineering (1)
- modulares System (1)
- morphological operators (1)
- multiagent systems (1)
- multidimensional (1)
- natural language generation (1)
- networks (1)
- neural (1)
- parallel calculations (1)
- path planning (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- public key infrastructure (1)
- question answering (1)
- recurrent (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- requirements analysis (1)
- retina fundus images (1)
- rich multimedia presentations (1)
- risk (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- security (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sequent calculi (1)
- shiq (1)
- simulation (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- software engineering (1)
- summative evaluation (1)
- survey in Koblenz (1)
- tag recommendation (1)
- tagging (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transformation (1)
- unique name assumption (1)
- usability study (1)
- vegetation modeling (1)
- verification (1)
- video games (1)
- virtual goods (1)
- visualization (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Iterative Signing of RDF(S) Graphs, Named Graphs, and OWL Graphs: Formalization and Application
(2013)
When publishing graph data on the web such as vocabulariesrnusing RDF(S) or OWL, one has only limited means to verify the authenticity and integrity of the graph data. Today's approaches require a high signature overhead and do not allow for an iterative signing of graph data. This paper presents a formally defined framework for signing arbitrary graph data provided in RDF(S), Named Graphs, or OWL. Our framework supports signing graph data at different levels of granularity: minimum self-contained graphs (MSG), sets of MSGs, and entire graphs. It supports for an iterative signing of graph data, e. g., when different parties provide different parts of a common graph, and allows for signing multiple graphs. Both can be done with a constant, low overhead for the signature graph, even when iteratively signing graph data.
This paper presents a method for the evolution of SHI ABoxes which is based on a compilation technique of the knowledge base. For this the ABox is regarded as an interpretation of the TBox which is close to a model. It is shown, that the ABox can be used for a semantically guided transformation resulting in an equisatisfiable knowledge base. We use the result of this transformation to effciently delete assertions from the ABox. Furthermore, insertion of assertions as well as repair of inconsistent ABoxes is addressed. For the computation of the necessary actions for deletion, insertion and repair, the E-KRHyper theorem prover is used.
Various best practices and principles guide an ontology engineer when modeling Linked Data. The choice of appropriate vocabularies is one essential aspect in the guidelines, as it leads to better interpretation, querying, and consumption of the data by Linked Data applications and users.
In this paper, we present the various types of support features for an ontology engineer to model a Linked Data dataset, discuss existing tools and services with respect to these support features, and propose LOVER: a novel approach to support the ontology engineer in modeling a Linked Data dataset. We demonstrate that none of the existing tools and services incorporate all types of supporting features and illustrate the concept of LOVER, which supports the engineer by recommending appropriate classes and properties from existing and actively used vocabularies. Hereby, the recommendations are made on the basis of an iterative multimodal search. LOVER uses different, orthogonal information sources for finding terms, e.g. based on a best string match or schema information on other datasets published in the Linked Open Data cloud. We describe LOVER's recommendation mechanism in general and illustrate it alongrna real-life example from the social sciences domain.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Concept for a Knowledge Base on ICT for Governance and Policy Modelling regarding eGovPoliNet
(2013)
Das EU-Projekt eGovPoliNet beschäftigt sich mit der Forschung und Entwicklung im Bereich der Informations- und Kommunikationstechnologien (IKT) für Steuerung und Politikgestaltung. Zahlreiche Communities verfolgen in diesem Themenbereich ähnliche Ziele der IT-unterstützten, strategischen Entscheidungsfindung und Simulation sozialer Problemfelder. Die vorhandenen Lösungsansätze sind bislang jedoch recht fragmentiert. Ziel von eGovPoliNet ist es in diesem Zusammenhang der Fragmentierung zu begegnen und durch die Förderung der Kooperation von Forschung und Praxis einen internationalen, offenen Dialog zu etablieren. Dieser wird durch die Beteiligung der Akteure auf diesem Gebiet der IKT die Diskussion und Entwicklung verschiedener Problemfelder voranbringen. Hierbei werden Akteure aus Forschung und Praxis ihre Expertise und Best-Practice Erkenntnisse teilen, um Politikanalyse, Modellierung und Steuerung zu unterstützen. eGovPoliNet wird zur Unterstützung dieses Dialogs eine Wissensbasis bereitstellen, deren konzeptuelle Ausarbeitung Gegenstand dieser Arbeit ist. Die Wissensbasis soll mit Inhalten aus dem Bereich der IKT zur strategischen Entscheidungsfindung und Simulation sozialer Problemfelder gefüllt werden, beispielsweise mit Publikationen, Softwarelösungen, oder Projektbeschreibungen. Diese Inhalte gilt es zu strukturieren, nutzenstiftend zu organisieren und zu verwalten, sodass die Wissensbasis letztendlich als Quelle gesammelten Wissens dient, welche die bislang fragmentierten Forschungs- und Entwicklungsergebnisse an zentraler Stelle vereint.
Ziel dieser Arbeit ist es also, ein Konzept einer Wissensbasis zu entwerfen, welches die nötige Struktur und die nötigen Funktionen bietet, Wissen bezüglich IKT-Lösungen zu verwalten. Das bedeutet in diesem Zusammenhang Wissen zu sammeln, aufzubereiten und dem Nutzer zugänglich zu machen. Die Wissensbasis soll außerdem nach Inhalten durchsuchbar sein. Desweiteren sollen die Nutzer motiviert werden, selbstständig an der Weiterentwicklung und Pflege der Wissensbasis mitzuwirken.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.