004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (73)
- Dissertation (33)
- Masterarbeit (29)
- Diplomarbeit (27)
- Bachelorarbeit (25)
- Studienarbeit (11)
- Konferenzveröffentlichung (4)
- Habilitation (1)
Sprache
- Englisch (203) (entfernen)
Schlagworte
- Software Engineering (6)
- Bluetooth (4)
- ontology (4)
- API (3)
- E-KRHyper (3)
- Enterprise 2.0 (3)
- Knowledge Compilation (3)
- OWL (3)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Ontology (3)
- Semantic Web (3)
- UML (3)
- University (3)
- classification (3)
- computer clusters (3)
- model-based (3)
- Abduktion <Logik> (2)
- Akzeptanz (2)
- Annotation (2)
- Beschaffung (2)
- Bildverarbeitung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer Graphics (2)
- Computergraphik (2)
- Computersimulation (2)
- Data Mining (2)
- Equality (2)
- Formale Ontologie (2)
- Graphik (2)
- Line Space (2)
- Linked Open Data (2)
- Logistik (2)
- Maschinelles Lernen (2)
- Modellgetriebene Entwicklung (2)
- Netzwerk (2)
- Neuronales Netz (2)
- OpenGL (2)
- Petri Nets (2)
- Petri-Netze (2)
- Propagation (2)
- RDF (2)
- Schlussfolgern (2)
- Serviceorientierte Architektur (2)
- Softwaretest (2)
- Theorem Proving (2)
- Usability (2)
- Volumen-Rendering (2)
- Wikipedia (2)
- XML (2)
- artificial neural networks (2)
- constraint logic programming (2)
- governance (2)
- hybrid automata (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- parallel algorithms (2)
- probability propagation nets (2)
- semantics (2)
- social media (2)
- social simulation (2)
- 101companies (1)
- 2019 European Parliament Election (1)
- 8C model (1)
- ABox (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Adaptation (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Algolib (1)
- Algorithm Engineering (1)
- Amazon Mechanical Turks (1)
- Analysis of social platform (1)
- Android <Systemplattform> (1)
- Anpassung (1)
- Architektur <Informatik> (1)
- Archivierung (1)
- Articles for Deletion (1)
- Association Rules (1)
- Auditing (1)
- Augenbewegung (1)
- Augmented Reality (1)
- Auslese (1)
- Auswahl (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatische Klassifikation (1)
- Automatisches Beweisverfahren (1)
- Automotive Systems (1)
- Avatar (1)
- B2B Integration (1)
- BPM (1)
- BPMN (1)
- BPMS (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beschreibungslogik (1)
- Bildanalyse (1)
- Bildsegmentierung (1)
- Biometric Authentication (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Business Collaboration (1)
- Business Process Modeling (1)
- Bürgerbeiteiligung (1)
- C++ (1)
- CSCW (1)
- Calculus (1)
- Casual Games (1)
- CodeBlue (1)
- Cold Chain (1)
- Coloskopie (1)
- Communication Networks (1)
- Computational biology (1)
- Compute Shader (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computeranimation (1)
- Computersicherheit (1)
- Computerspiel (1)
- Computertomografie (1)
- Computervisualistik (1)
- Conference (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- DPLL procedure (1)
- DTI (1)
- Darmpolyp (1)
- Data compression (1)
- Data manipulation (1)
- Data protection (1)
- Datenaustausch (1)
- Datenkompression (1)
- Datenschutz (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digitale Bilder (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Dokumentation (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Partizipation (1)
- E-government (1)
- E-participation (1)
- E-services (1)
- ECMS 2012 (1)
- EU (1)
- Eclipse <Programmierumgebung> (1)
- Einkauf (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Emulation (1)
- Enhanced Reality (1)
- Enhanced Representation (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Eye Tracking (1)
- Eyetracking (1)
- Fabric Simulation (1)
- Facebook Application (1)
- Fahrverhalten (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fehlerbaum (1)
- Fiber Tracking (1)
- Fingerprint Recognition (1)
- First aid (1)
- FlexViz (1)
- Food Transportation System (1)
- Foodstuff (1)
- Formal Methods (1)
- Formale Methoden (1)
- Fotoauswahl (1)
- Fragebeantwortung (1)
- Function Words (1)
- GDPR (1)
- GDS (1)
- GPGPU (1)
- GPS (1)
- GReQL2 (1)
- GSM-Standard (1)
- GazeTheWeb (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Generative Model (1)
- Geocaching (1)
- Gerichteter Graph (1)
- Germany (1)
- Grafikkarte (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Grounded Theory (1)
- Gruppenarbeit (1)
- Hand-based Gestures (1)
- Haskell (1)
- Healthcare institution (1)
- Hindernis (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- Image (1)
- Image Processing (1)
- Image Understanding (1)
- Imitation Learning (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Informatik (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Retrieval (1)
- Information system (1)
- Inpainting-Verfahren (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Internet (1)
- Internet Voting (1)
- Internet of Things (1)
- Interoperability (1)
- Interoperabilität (1)
- JGraLab (1)
- JML (1)
- Java (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- KRHyper (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kollaboration (1)
- Konturfindung (1)
- Konzept (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Latent Negative (1)
- Leichte Sprache (1)
- Linespace (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Logik (1)
- Logischer Schluss (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- MapReduce (1)
- Maschinelles Sehen (1)
- Matching (1)
- MeVisLab (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Mensch-Maschine-Interaktion (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Metamodel (1)
- Migration (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile Information Systems (1)
- Model-Driven Engineering (1)
- Modellfahrzeug (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Netzwerk Routing (1)
- Netzwerkanalyse (1)
- OCL <Programmiersprache> (1)
- ODRL (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- Object Recognition (1)
- Objektentfernung (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- OpenGL Shading Language (1)
- OpenVDB (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- PEPPOL (1)
- POIs (1)
- Pan European Public Procurement OnLine (1)
- Path Tracing (1)
- Pattern Recognition (1)
- Personalised Information Systems (1)
- Petri net (1)
- Petri-Netz (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadverfolgung (1)
- Photographie (1)
- Plug in (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmierung (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prädikatenlogik (1)
- Quality assessment system (1)
- Query Expansion (1)
- RDF Graphs (1)
- RDF modeling (1)
- Random Finite Sets (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Recommender System (1)
- Reddit (1)
- Reengineering (1)
- Reflections (1)
- Reflektionen (1)
- Regionenlabeling (1)
- Registratur (1)
- Relevance Feedback (1)
- Rendering (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Reverse Engineering (1)
- RoboCup (1)
- Robocup 2008 (1)
- Roboter (1)
- Robotik (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Rückverfolgbarkeit (1)
- SOA (1)
- SPARQL (1)
- STOF Model (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Schema Information (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Segmentation (1)
- Segmentierung (1)
- Semantic Data (1)
- Semantics (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Shader (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwicklung (1)
- Softwareergonomie (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Simulation (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spezifikation (1)
- Steuerung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Support System (1)
- Survey Research (1)
- Systembiologie (1)
- TAP (1)
- TBox (1)
- TRECVID (1)
- Tableau Calculus (1)
- Taxonomy (1)
- Technologischer Raum (1)
- Tenneco Automotive (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Transferfunction (1)
- Transferfunktion (1)
- Transport (1)
- Type System (1)
- Type system (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Unified Modeling Language (UML ) (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- VCD (1)
- VIACOBI (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Verifikation (1)
- Virtual Company Dossier (1)
- Virtual characters (1)
- Virtuelle Realität (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Wavelet (1)
- Web (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web Services (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Weblog (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wissensbasis (1)
- Wissensmanagement (1)
- Word-of-Mouth (1)
- World Wide Web 2.0 (1)
- Wrapping (1)
- You-messages (1)
- acceptance (1)
- adaptive resonance theory (1)
- application programming interfaces (1)
- archiving (1)
- artifcial neural networks (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- automated theorem prover (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- categorisation (1)
- collaboration (1)
- collaborative technologies (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- core ontologies (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- deductive (1)
- description logic (1)
- deutsche Hochschulen (1)
- diabetic retinopathy (1)
- diffusion (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- distributed information systems (1)
- e-Commerce (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGovernment (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- estimation of algorithm efficiency (1)
- evaluation (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- eye tracking (1)
- faceted search (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- gradient method of training weight coefficients (1)
- grassland (1)
- groupwork (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- image processing (1)
- image semantics (1)
- information retrieval (1)
- information system (1)
- jOWL (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- landmarks (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- methodology (1)
- micro-agent (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model generation (1)
- model-driven engineering (1)
- modulares System (1)
- morphological operators (1)
- multiagent systems (1)
- multidimensional (1)
- natural language generation (1)
- networks (1)
- neural (1)
- parallel calculations (1)
- path planning (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- public key infrastructure (1)
- question answering (1)
- recurrent (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- requirements analysis (1)
- retina fundus images (1)
- rich multimedia presentations (1)
- risk (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- security (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sequent calculi (1)
- shiq (1)
- simulation (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- software engineering (1)
- summative evaluation (1)
- survey in Koblenz (1)
- tag recommendation (1)
- tagging (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transformation (1)
- unique name assumption (1)
- usability study (1)
- vegetation modeling (1)
- verification (1)
- video games (1)
- virtual goods (1)
- visualization (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.
In dieser Ausarbeitung beschreibe ich die Ergebnisse meiner Untersuchungen zur Erweiterung des LogAnswer-Systemsmit nutzerspezifischen Profilinformationen. LogAnswer ist ein natürlichsprachliches open-domain Frage-Antwort-System. Das heißt: es beantwortet Fragen zu beliebigen Themen und liefert dabei konkrete (möglichst knappe und korrekte) Antworten zurück. Das System wird im Rahmen eines Gemeinschaftsprojekts der Arbeitsgruppe für künstliche Intelligenz von Professor Ulrich Furbach an der Universität Koblenz-Landau und der Arbeitsgruppe Intelligent Information and Communication Systems (IICS) von Professor Hermann Helbig an der Fernuniversität Hagen entwickelt. Die Motivation meiner Arbeit war die Idee, dass der Prozess der Antwortfindung optimiert werden kann, wenn das Themengebiet, auf das die Frage abzielt, im Vorhinein bestimmt werden kann. Dazu versuchte ich im Rahmen meiner Arbeit die Interessensgebiete von Nutzern basierend auf Profilinformationen zu bestimmen. Das Semantic Desktop System NEPOMUK wurde verwendet um diese Profilinformationen zu erhalten. NEPOMUK wird verwendet um alle Daten, Dokumente und Informationen, die ein Nutzer auf seinem Rechner hat zu strukturieren. Dazu nutzt das System ein sogenanntes Personal Information Model (PIMO) in Form einer Ontologie. Diese Ontologie enthält unter anderem eine Klasse "Topic", welche die wichtigste Grundlage für das Erstellen der in meiner Arbeit verwendeten Nutzerprofile bildete. Konkret wurde die RDF-Anfragesprache SPARQL verwendet, um eine Liste aller für den Nutzer relevanten Themen aus der Ontologie zu filtern. Die zentrale Idee meiner Arbeit war es nun diese Profilinformationen zur Optimierung des Ranking von Antwortkandidaten einzusetzen. In LogAnswer werden zu jeder gestellten Frage bis zu 200 potentiell relevante Textstellen aus der deutschen Wikipedia extrahiert. Diese Textstellen werden auf Basis von Eigenschaften (wie z.B. lexikalische Übereinstimmungen zwischen Frage und Textstelle) geordnet, da innerhalb des zur Verfügung stehenden Zeitlimits nicht alle Kandidaten bearbeitet werden können.
Mein Ansatz verfolgte das Ziel, diesen Algorithmus durch Nutzerprofile so zu erweitern, dass Antwortkandidaten, welche für den Benutzer relevante Informationen enthalten, höher in der Rangfolge eingeordnet werden. Zur Umsetzung dieser Idee musste eine Methode gefunden werden, um zu bestimmen ob ein Antwortkandidat mit dem Profil übereinstimmt. Da sich die in einer Textstelle enthaltenen Informationen in den meisten Fällen auf das übergeordnete Thema des Artikels beziehen, ohne den Namen des Artikels explizit zu erwähnen, wurde in meiner Implementierung der Artikelname betrachtet, um zu ermitteln, zu welchem Themengebiet die Textstelle Informationen liefert. Als zusätzliches Hilfsmittel wurde außerdem die DBpedia-Ontologie eingesetzt, welche die Informationen der Wikipedia strukturiert im RDF Format enthält. Mit Hilfe dieser Ontologie war es möglich, jeden Artikel in Kategorien einzuordnen, die dann mit den im Profil enthaltenen Stichworten verglichen wurden. Zur Untersuchung der Auswirkungen des Ansatzes auf das Ranking-Verfahren wurden mehrere Testläufe mit je 200 Testfragen durchgeführt. Die erste Testmenge bestand aus zufällig ausgewählten Fragen, die mit meinem eigenen Nutzerprofil getestet wurden. Dieser Testlauf lieferte kaum nutzbare Ergebnisse, da nur bei 29 der getesteten Fragen überhaupt ein Antwortkandidat mit dem Profil in Verbindung gebracht werden konnte. Außerdem konnte eine potentielle Verbesserung der Ergebnisse nur bei einer dieser 29 Fragen festgestellt werden, was zu der Schlussfolgerung führte, dass der Einsatz von Profildaten nicht für Anwendungsfälle geeignet ist, in denen die Fragen keine Korrelation mit dem genutzten Profil aufweisen.
Da die Grundannahme meiner Arbeit war, dass Nutzer in erster Linie Fragen zu den Interessensgebieten stellen, welche sich aus ihrem Profil ableiten lassen, sollten die weiteren Testläufe genau diesen Fall beleuchten. Dazu wurden 200 Testfragen aus dem Bereich Sport ausgewählt und mit einem Profil getestet, welches Stichworte zu unterschiedlichen Sportarten enthielt. Die Tests mit den Sportfragen waren wesentlich aussagekräftiger. Auch hier deuteten die Ergebnisse darauf hin, dass der Ansatz kein großes Potential zur Verbesserung des Rankings hat. Eine genauere Betrachtung einiger ausgewählter Beispiele zeigte allerdings, dass die Integration von Profildaten für bestimmte Anwendungsfälle, wie z.B. offene Fragen für die es mehr als eine korrekte Antwort gibt, durchaus zu einer Verbesserung der Ergebnisse führen kann. Außerdem wurde festgestellt, dass viele der schlechten Ergebnisse auf Inkosistenzen in der DBpedia-Ontologie und grundsätzliche Probleme im Umgang mit Wissensbasen in natürlicher Sprache beruhen.
Die Schlussfolgerung meiner Arbeit ist, dass der in dieser Arbeit vorgestellte Ansatz zur Integration von Profilinformationen für den aktuellen Anwendungsfall von LogAnswer nicht geeignet ist, da vor allem Faktenwissen aus sehr unterschiedlichen Domänen abgefragt wird und offene Fragen nur einen geringen Anteil ausmachen.
In der heutigen Robotik-Forschung soll hauptsächlich die Interaktion von autonomen, mobilen Robotern mit vorher nicht bekannten Umgebungen ermöglicht werden. Eines der grundlegendsten Probleme, das in diesem Kontext gelöst werden muss, ist die Frage, wo der Roboter ist und wie seine Umgebung in unmittelbarer Nähe, aber auch an bereits besuchten Orten aussieht " das sogenannte SLAM Problem.
In dieser Arbeit wird ein GraphSLAM System vorgestellt, das einen graphbasierten Lösungsansatz für dieses Problem darstellt. Ein solches System besteht aus einem Frontend und einem Backend. Das Frontend hat die Aufgabe, aus den Sensordaten einen Graphen zu konstruieren, der die relative Lage der Messungen zueinander widerspiegelt. Da sich Messungen widersprechen können, ist ein solcher Graph im Allgemeinen inkonsistent. Das Backend hat nun die Aufgabe, diesen Graphen zu optimieren, d. h. eine Konfiguration der Knoten zu bestimmen, die sich nur minimal widerspricht. Knoten repräsentieren Roboterposen, die aufgrund der enthaltenen Rotationen sog. Mannigfaltigkeiten sind und keinen gewöhnlichen Vektorraum bilden. Dies wird in der Arbeit konsequent berücksichtigt, was zu einem sehr effizienten und eleganten Optimierungsverfahren führt.
Aktuell stehen nur wenige Informationen über die Verbreitung von Cloud Computing in deutschen Hochschulen zur Verfügung. Ein besseres Verständnis vom Stand der Technik in diesem Bereich würde die Modernisierung der Hochschulen in Deutschland und die Entwicklung von geeigneteren Cloud Produkten und neuen Geschäftsmodellen für diese Nische ermöglichen. Zu diesem Zweck wird eine Literaturrecherche über Cloud Computing und IT-Verbreitung und eine empirische Untersuchung mit einem Online-Fragebogen an Hochschulen in Deutschland durchgeführt, um den aktuellen Stand von Cloud Computing an deutschen Hochschulen zu untersuchen.
Ebenso fragt die Untersuchung nach den Chancen und Risiken, die die Mitarbeiterinnen und Mitarbeiter von Hochschulrechenzentren bei der Nutzung von Cloud Computing sehen. Im Anschluss daran werden Experten aus Universitäten und Unternehmen interviewt, um die gesammelten Informationen vom Online-Fragebogen und während der Forschung zu erweitern. Die erwarteten Ergebnisse werden dazu dienen, um eine Empfehlung für Hochschulen in Deutschland zu verfassen, ob sie Cloud Technologien schon benutzen sollen oder nicht. Darüber hinaus wird eine Liste mit kritischen Leitfragen vorgestellt, die vor der Migration zum Cloud Computing berücksichtig werden sollte.
In this paper, we compare two approaches for exploring large,rnhierarchical data spaces of social media data on mobile devicesrnusing facets. While the first approach arranges thernfacets in a 3x3 grid, the second approach makes use of arnscrollable list of facets for exploring the data. We have conductedrna between-group experiment of the two approachesrnwith 24 subjects (20 male, 4 female) executing the same set ofrntasks of typical mobile users" information needs. The resultsrnshow that the grid-based approach requires significantly morernclicks, but subjects need less time for completing the tasks.rnFurthermore, it shows that the additional clicks do not hamperrnthe subjects" satisfaction. Thus, the results suggest thatrnthe grid-based approach is a better choice for faceted searchrnon touchscreen mobile devices. To the best of our knowledge,rnsuch a summative evaluation of different approaches for facetedrnsearch on mobile devices has not been done so far.
Schema information about resources in the Linked Open Data (LOD) cloud can be provided in a twofold way: it can be explicitly defined by attaching RDF types to the resources. Or it is provided implicitly via the definition of the resources´ properties.
In this paper, we analyze the correlation between the two sources of schema information. To this end, we have extracted schema information regarding the types and properties defined in two datasets of different size. One dataset is a LOD crawl from TimBL- FOAF profile (11 Mio. triple) and the second is an extract from the Billion Triples Challenge 2011 dataset (500 Mio. triple). We have conducted an in depth analysis and have computed various entropy measures as well as the mutual information encoded in this two manifestations of schema information.
Our analysis provides insights into the information encoded in the different schema characteristics. It shows that a schema based on either types or properties alone will capture only about 75% of the information contained in the data. From these observations, we derive conclusions about the design of future schemas for LOD.
In this paper, we demonstrate by means of two examples how to work with probability propagation nets (PPNs). The fiirst, which comes from the book by Peng and Reggia [1], is a small example of medical diagnosis. The second one comes from [2]. It is an example of operational risk and is to show how the evidence flow in PPNs gives hints to reduce high losses. In terms of Bayesian networks, both examples contain cycles which are resolved by the conditioning technique [3].
Virtual Goods + ODRL 2012
(2012)
This is the 10th international workshop for technical, economic, and legal aspects of business models for virtual goods incorporating the 8th ODRL community group meeting. This year we did not call for completed research results, but we invited PhD students to present and discuss their ongoing research work. In the traditional international group of virtual goods and ODRL researchers we discussed PhD research from Belgium, Brazil, and Germany. The topics focused on research questions about rights management in the Internet and e-business stimulation. In the center of rights management stands the conception of a formal policy expression that can be used for human readable policy transparency, as well as for machine readable support of policy conformant systems behavior up to automatic policy enforcement. ODRL has proven to be an ideal basis for policy expressions, not only for digital copy rights, but also for the more general "Policy Awareness in the World of Virtual Goods". In this sense, policies support the communication of virtual goods, and they are a virtualization of rules-governed behavior themselves.
Das Ziel dieser Masterarbeit ist, dass der Roboter Lisa komplexe Befehle verarbeiten und Information aus einem Kommando extrahieren kann, die benötigt werden, um eine komplexe Aufgabe als eine Sequenz von kleineren Aufgaben auszuführen. Um dieses Ziel zu erreichen wird das Bild, das Lisa von ihrer Umgebung hat, mit semantischen Informationen angereichert. Diese Informationen werden in ihre Karte eingefügt werden. Es wird angenommen, dass der komplexe Befehl bereits geparst worden ist. Deshalb ist die Verarbeitung des Inputs, um daraus einen geparsten Befehl zu erstellen, kein Teil dieser Masterarbeit. Die Karten, die Lisa aufbaut, werden mit semantischen Anmerkungen annotiert. Zu diesen Anmerkungen gehört jede Art von Informationen, die nützlich zur Ausführung allgemeiner Aufgaben sein könnte. Das kann zumBeispiel eine hierarchische Klassifizierungen von Orten, Objekten und Flächen sein. Die Abarbeitung des Befehls mit den zugehörigen Informationen über die Umgebung wird eine Sequenz von Aufgaben auslösen. Diese Aufgaben sind die bereits implementierten Fähigkeiten von Lisa, wie zum Beispiel Objekterkennung oder Navigation. Das Ziel dieser Masterarbeit ist aber nicht nur, die vorhandenen Aufgaben zu nutzen, sondern auch das Hinzufügen von neuen Aufgaben zu erleichtern.
Das World Wide Web (WWW) ist heute zu einem sehr wichtigen Kommunikationskanal geworden, dessen Nutzung in der Vergangenheit stetig gestiegen ist. Websitebesitzer haben schon seit der Entwicklung des ersten Web Browser von Tim Berners-Lee im Jahre 1990 Interesse daran, das Verhalten von Benutzern zu erkennen und zu verstehen. Durch den Einfluss, den der Onlinekanal heute erzielt und welcher alle anderen Medien übersteigt, ist auch das Interesse im Beobachten von Website-Benutzungen und Benutzeraktivitäten noch weiter gestiegen. Das Sammeln und Analysieren von Daten über die Benutzung von Websites kann helfen, Benutzerverhalten zu verstehen, Services zu verbessern und Gewinn zu steigern.
Darüber hinaus ist es Voraussetzung für effektives Website Design und Management, effektive Mass Customization und effektives Marketing. Das Themengebiet, welches diese Aspekte betrachtet, heißt Web Analytics (WA).rnAllerdings führen sich ändernde Technologien und sich entwickelnde Web Analytics Methoden und Prozesse zu großen Herausforderungen für Unternehmen, die Web Analytic Programme durchführen. Aufgrund fehlender Ressourcen in den verschiedensten Bereichen, sowie einer hier oft aufzufindenden anderen Art von Websites, ist es vor allem für Klein- und Mittelständige Unternehmen (KMU) sowie Non-Profit Organisationen schwer, Web Analytics in einer effektiven Weise zu betreiben.
Dieses Forschungsvorhaben zielt daher darauf ab, die vorhandene Lücke zwischen der Theorie, den Möglichkeiten die Tools bieten und den betrieblichen Anforderungen zu identifizieren. Hierfür wird das Thema von drei verschiedenen, jedoch aufeinander aufbauenden Richtungen betrachtet: der akademischen Literatur, Web Analytic Programmen und einer Fallstudie. Mit Hilfe eines Action Research Ansatzes war es möglich, einen ganzheitlichen Überblick des Themengebiets Web Analytics zu erhalten und bestehende Lücken aufzudecken. Das Ergebnis dieser wissenschaftlichen Arbeit ist ein Framework, welches KMUs die Informations-Websites betreiben dabei hilft, Web Analytic Initiativen durch zu führen.
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Iterative Signing of RDF(S) Graphs, Named Graphs, and OWL Graphs: Formalization and Application
(2013)
When publishing graph data on the web such as vocabulariesrnusing RDF(S) or OWL, one has only limited means to verify the authenticity and integrity of the graph data. Today's approaches require a high signature overhead and do not allow for an iterative signing of graph data. This paper presents a formally defined framework for signing arbitrary graph data provided in RDF(S), Named Graphs, or OWL. Our framework supports signing graph data at different levels of granularity: minimum self-contained graphs (MSG), sets of MSGs, and entire graphs. It supports for an iterative signing of graph data, e. g., when different parties provide different parts of a common graph, and allows for signing multiple graphs. Both can be done with a constant, low overhead for the signature graph, even when iteratively signing graph data.
This paper presents a method for the evolution of SHI ABoxes which is based on a compilation technique of the knowledge base. For this the ABox is regarded as an interpretation of the TBox which is close to a model. It is shown, that the ABox can be used for a semantically guided transformation resulting in an equisatisfiable knowledge base. We use the result of this transformation to effciently delete assertions from the ABox. Furthermore, insertion of assertions as well as repair of inconsistent ABoxes is addressed. For the computation of the necessary actions for deletion, insertion and repair, the E-KRHyper theorem prover is used.
Various best practices and principles guide an ontology engineer when modeling Linked Data. The choice of appropriate vocabularies is one essential aspect in the guidelines, as it leads to better interpretation, querying, and consumption of the data by Linked Data applications and users.
In this paper, we present the various types of support features for an ontology engineer to model a Linked Data dataset, discuss existing tools and services with respect to these support features, and propose LOVER: a novel approach to support the ontology engineer in modeling a Linked Data dataset. We demonstrate that none of the existing tools and services incorporate all types of supporting features and illustrate the concept of LOVER, which supports the engineer by recommending appropriate classes and properties from existing and actively used vocabularies. Hereby, the recommendations are made on the basis of an iterative multimodal search. LOVER uses different, orthogonal information sources for finding terms, e.g. based on a best string match or schema information on other datasets published in the Linked Open Data cloud. We describe LOVER's recommendation mechanism in general and illustrate it alongrna real-life example from the social sciences domain.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Concept for a Knowledge Base on ICT for Governance and Policy Modelling regarding eGovPoliNet
(2013)
Das EU-Projekt eGovPoliNet beschäftigt sich mit der Forschung und Entwicklung im Bereich der Informations- und Kommunikationstechnologien (IKT) für Steuerung und Politikgestaltung. Zahlreiche Communities verfolgen in diesem Themenbereich ähnliche Ziele der IT-unterstützten, strategischen Entscheidungsfindung und Simulation sozialer Problemfelder. Die vorhandenen Lösungsansätze sind bislang jedoch recht fragmentiert. Ziel von eGovPoliNet ist es in diesem Zusammenhang der Fragmentierung zu begegnen und durch die Förderung der Kooperation von Forschung und Praxis einen internationalen, offenen Dialog zu etablieren. Dieser wird durch die Beteiligung der Akteure auf diesem Gebiet der IKT die Diskussion und Entwicklung verschiedener Problemfelder voranbringen. Hierbei werden Akteure aus Forschung und Praxis ihre Expertise und Best-Practice Erkenntnisse teilen, um Politikanalyse, Modellierung und Steuerung zu unterstützen. eGovPoliNet wird zur Unterstützung dieses Dialogs eine Wissensbasis bereitstellen, deren konzeptuelle Ausarbeitung Gegenstand dieser Arbeit ist. Die Wissensbasis soll mit Inhalten aus dem Bereich der IKT zur strategischen Entscheidungsfindung und Simulation sozialer Problemfelder gefüllt werden, beispielsweise mit Publikationen, Softwarelösungen, oder Projektbeschreibungen. Diese Inhalte gilt es zu strukturieren, nutzenstiftend zu organisieren und zu verwalten, sodass die Wissensbasis letztendlich als Quelle gesammelten Wissens dient, welche die bislang fragmentierten Forschungs- und Entwicklungsergebnisse an zentraler Stelle vereint.
Ziel dieser Arbeit ist es also, ein Konzept einer Wissensbasis zu entwerfen, welches die nötige Struktur und die nötigen Funktionen bietet, Wissen bezüglich IKT-Lösungen zu verwalten. Das bedeutet in diesem Zusammenhang Wissen zu sammeln, aufzubereiten und dem Nutzer zugänglich zu machen. Die Wissensbasis soll außerdem nach Inhalten durchsuchbar sein. Desweiteren sollen die Nutzer motiviert werden, selbstständig an der Weiterentwicklung und Pflege der Wissensbasis mitzuwirken.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.