004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (73)
- Dissertation (33)
- Masterarbeit (29)
- Diplomarbeit (27)
- Bachelorarbeit (25)
- Studienarbeit (11)
- Konferenzveröffentlichung (4)
- Habilitation (1)
Sprache
- Englisch (203) (entfernen)
Schlagworte
- Software Engineering (6)
- Bluetooth (4)
- ontology (4)
- API (3)
- E-KRHyper (3)
- Enterprise 2.0 (3)
- Knowledge Compilation (3)
- OWL (3)
- OWL <Informatik> (3)
- Ontologie <Wissensverarbeitung> (3)
- Ontology (3)
- Semantic Web (3)
- UML (3)
- University (3)
- classification (3)
- computer clusters (3)
- model-based (3)
- Abduktion <Logik> (2)
- Akzeptanz (2)
- Annotation (2)
- Beschaffung (2)
- Bildverarbeitung (2)
- Campus Information System (2)
- Cloud Computing (2)
- Computer Graphics (2)
- Computergraphik (2)
- Computersimulation (2)
- Data Mining (2)
- Equality (2)
- Formale Ontologie (2)
- Graphik (2)
- Line Space (2)
- Linked Open Data (2)
- Logistik (2)
- Maschinelles Lernen (2)
- Modellgetriebene Entwicklung (2)
- Netzwerk (2)
- Neuronales Netz (2)
- OpenGL (2)
- Petri Nets (2)
- Petri-Netze (2)
- Propagation (2)
- RDF (2)
- Schlussfolgern (2)
- Serviceorientierte Architektur (2)
- Softwaretest (2)
- Theorem Proving (2)
- Usability (2)
- Volumen-Rendering (2)
- Wikipedia (2)
- XML (2)
- artificial neural networks (2)
- constraint logic programming (2)
- governance (2)
- hybrid automata (2)
- mobile phone (2)
- multi-agent systems (2)
- multimedia metadata (2)
- parallel algorithms (2)
- probability propagation nets (2)
- semantics (2)
- social media (2)
- social simulation (2)
- 101companies (1)
- 2019 European Parliament Election (1)
- 8C model (1)
- ABox (1)
- API Analysis (1)
- API Migratiom (1)
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Acceleration Structures (1)
- Action Recognition (1)
- Action Segmentation (1)
- Adaptation (1)
- Adaptive Services Grid (ASG) (1)
- Adobe Flex (1)
- Agenten (1)
- Agentenorientiertes Software Engineering (1)
- Agents (1)
- Algolib (1)
- Algorithm Engineering (1)
- Amazon Mechanical Turks (1)
- Analysis of social platform (1)
- Android <Systemplattform> (1)
- Anpassung (1)
- Architektur <Informatik> (1)
- Archivierung (1)
- Articles for Deletion (1)
- Association Rules (1)
- Auditing (1)
- Augenbewegung (1)
- Augmented Reality (1)
- Auslese (1)
- Auswahl (1)
- Automated Theorem Proving (1)
- Automated Theorem Proving Systems (1)
- Automatische Klassifikation (1)
- Automatisches Beweisverfahren (1)
- Automotive Systems (1)
- Avatar (1)
- B2B Integration (1)
- BPM (1)
- BPMN (1)
- BPMS (1)
- Bayes Procedures (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Bebauungsdichte (1)
- Bedarfsanalyse (1)
- Bedarfsforschung (1)
- Befahrbarkeit (1)
- Beschreibungslogik (1)
- Bildanalyse (1)
- Bildsegmentierung (1)
- Biometric Authentication (1)
- Bipartiter Graph (1)
- Blickbewegung (1)
- Blickpunktabhängig (1)
- Blog marketing (1)
- Border Gateway Protocol (1)
- Border Gateway Protocol 4 (1)
- Business Collaboration (1)
- Business Process Modeling (1)
- Bürgerbeiteiligung (1)
- C++ (1)
- CSCW (1)
- Calculus (1)
- Casual Games (1)
- CodeBlue (1)
- Cold Chain (1)
- Coloskopie (1)
- Communication Networks (1)
- Computational biology (1)
- Compute Shader (1)
- Computer Security (1)
- Computer Vision (1)
- Computer assisted communication (1)
- Computeranimation (1)
- Computersicherheit (1)
- Computerspiel (1)
- Computertomografie (1)
- Computervisualistik (1)
- Conference (1)
- Container Entity Modell (1)
- Content Analysis (1)
- Content Management (1)
- Context-aware processes (1)
- Core Ontology on Multimedia (1)
- Core Ontology on Multimedia (COMM) (1)
- Creativity (1)
- Criteria Matrix (1)
- Crowdsourcing (1)
- DPLL procedure (1)
- DTI (1)
- Darmpolyp (1)
- Data compression (1)
- Data manipulation (1)
- Data protection (1)
- Datenaustausch (1)
- Datenkompression (1)
- Datenschutz (1)
- Deduktion (1)
- Deep Metric Learning (1)
- Defi-Now! (1)
- Defibrillator (1)
- Delta (1)
- Description Logic (1)
- Description Logics (1)
- Design Pattern (1)
- Destiny (1)
- Developer profiling (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnoseunterstützung (1)
- Diagnosis (1)
- Diagnosis assistance (1)
- Diffusion (1)
- Diffusionsbildgebung (1)
- Digitale Bilder (1)
- Dijkstras Algorithmus (1)
- Dimension 3 (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Discussion Forums (1)
- Diskrete Simulation (1)
- Distance Vector Routing (1)
- Distanz Vektor Routing (1)
- Distributed Environments (1)
- Distributed process execution (1)
- Dokumentation (1)
- Drahtloses lokales Netz (1)
- Dreidimensionale Bildverarbeitung (1)
- Driver Assistance Systems (1)
- Dynamische Analyse (1)
- E-Business (1)
- E-Hyper Tableau (1)
- E-KRHyper theorem prover (1)
- E-Partizipation (1)
- E-government (1)
- E-participation (1)
- E-services (1)
- ECMS 2012 (1)
- EU (1)
- Eclipse <Programmierumgebung> (1)
- Einkauf (1)
- Empfehlungssystem (1)
- Empirical Studies (1)
- Emulation (1)
- Enhanced Reality (1)
- Enhanced Representation (1)
- Enterprise Information Management (1)
- Enterprise Systems (1)
- Entwickler Profil (1)
- Entwurfsmuster (1)
- Ergonomic Principles (1)
- Erste Hilfe (1)
- European Conference on Modelling and Simulation (1)
- Europäischer Schadensbericht (1)
- Evaluierung (1)
- Eye Tracking (1)
- Eyetracking (1)
- Fabric Simulation (1)
- Facebook Application (1)
- Fahrverhalten (1)
- Fahrzeug (1)
- Farbkalibrierung (1)
- Fault Trees (1)
- Feature Extraction (1)
- Feature Modeling (1)
- Fehlerbaum (1)
- Fiber Tracking (1)
- Fingerprint Recognition (1)
- First aid (1)
- FlexViz (1)
- Food Transportation System (1)
- Foodstuff (1)
- Formal Methods (1)
- Formale Methoden (1)
- Fotoauswahl (1)
- Fragebeantwortung (1)
- Function Words (1)
- GDPR (1)
- GDS (1)
- GPGPU (1)
- GPS (1)
- GReQL2 (1)
- GSM-Standard (1)
- GazeTheWeb (1)
- Gefäßanalyse (1)
- Gefühl (1)
- Gehirn (1)
- Gelände (1)
- Generative Model (1)
- Geocaching (1)
- Gerichteter Graph (1)
- Germany (1)
- Grafikkarte (1)
- Grafikprogrammierung (1)
- Grails (1)
- Grails 1.2 (1)
- Graph Technology (1)
- Graphicsprogramming (1)
- Graphik-Hardware (1)
- Grounded Theory (1)
- Gruppenarbeit (1)
- Hand-based Gestures (1)
- Haskell (1)
- Healthcare institution (1)
- Hindernis (1)
- Horn Clauses (1)
- Human motion (1)
- Human-Computer Interaction (1)
- Hyper Tableau Calculus (1)
- Hypertableaux (1)
- I-messages (1)
- IASON (1)
- IT Guru (1)
- IT Outsourcing (1)
- IT Security (1)
- IT Services (1)
- Image (1)
- Image Processing (1)
- Image Understanding (1)
- Imitation Learning (1)
- Incremental Algorithms (1)
- Industrial-CT (1)
- Informatik (1)
- Information Asset Register (1)
- Information Audit (1)
- Information Capturing Methods (1)
- Information Retrieval (1)
- Information system (1)
- Inpainting-Verfahren (1)
- Intelligent Information Network (1)
- Interactive Video Retrieval (1)
- Internet (1)
- Internet Voting (1)
- Internet of Things (1)
- Interoperability (1)
- Interoperabilität (1)
- JGraLab (1)
- JML (1)
- Java (1)
- Java <Programmiersprache> (1)
- Java Modeling Language (1)
- Java. Programmiersprache (1)
- KRHyper (1)
- Kantenbewerteter Graph (1)
- Kantenverfolgung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge Graphs (1)
- Knowledge Sharing (1)
- Kollaboration (1)
- Konturfindung (1)
- Konzept (1)
- Künstliche Intelligenz (1)
- Laser (1)
- Latent Negative (1)
- Leichte Sprache (1)
- Linespace (1)
- Link Prediction (1)
- Linked Data Modeling (1)
- Logik (1)
- Logischer Schluss (1)
- Lokalisation (1)
- MIA (1)
- MPEG-7 (1)
- Machine-Learning (1)
- Machinelles lernen (1)
- MapReduce (1)
- Maschinelles Sehen (1)
- Matching (1)
- MeVisLab (1)
- Mediator framework (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Mensch-Maschine-Interaktion (1)
- Merkmalsdetektion (1)
- Merkmalsextrahierung (1)
- Metamodel (1)
- Migration (1)
- Mining (1)
- Mister X (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Mobile Information Systems (1)
- Model-Driven Engineering (1)
- Modellfahrzeug (1)
- Morphologische Operatoren (1)
- Motion Capturing (1)
- Motivation (1)
- Mouse Gestures (1)
- Multi-Agenten-Systeme (1)
- Multi-robot System (1)
- Multiagent System (1)
- Multiagentensysteme (1)
- Multidimensional (1)
- Multimedia Metadata Ontology (1)
- Multimodal Action Recognition (1)
- Multiple Object Tracking (1)
- N-Body Simulation (1)
- N-Körper Simulation (1)
- Native language identification (1)
- Natural Feature Tracking (1)
- Natural Language Processing (1)
- Netzwerk Routing (1)
- Netzwerkanalyse (1)
- OCL <Programmiersprache> (1)
- ODRL (1)
- ONDEX (1)
- OPNET (1)
- OVTK (1)
- Object Recognition (1)
- Objektentfernung (1)
- One-Shot Action Recognition (1)
- Online Community (1)
- Ontologie. Wissensverarbeitung (1)
- Ontology API model (1)
- Ontology alignment (1)
- OpenGL Shading Language (1)
- OpenVDB (1)
- Oracle Generation (1)
- Oraklegenerierung (1)
- PEPPOL (1)
- POIs (1)
- Pan European Public Procurement OnLine (1)
- Path Tracing (1)
- Pattern Recognition (1)
- Personalised Information Systems (1)
- Petri net (1)
- Petri-Netz (1)
- Petrinetz (1)
- Pfadnachverfolgung (1)
- Pfadplanung (1)
- Pfadverfolgung (1)
- Photographie (1)
- Plug in (1)
- Pointing Devices (1)
- Policy Language (1)
- Political Communication (1)
- Politik (1)
- Probabilistic finite automata (1)
- Probability (1)
- Probability propagation nets (1)
- Proceedings (1)
- Process tracing (1)
- Programmierung (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Prädikatenlogik (1)
- Quality assessment system (1)
- Query Expansion (1)
- RDF Graphs (1)
- RDF modeling (1)
- Random Finite Sets (1)
- Raytracing (1)
- ReDSeeDS-Project (1)
- Real-Life Game (1)
- Real-Life Spiel (1)
- Real-Time (1)
- Recommender System (1)
- Reddit (1)
- Reengineering (1)
- Reflections (1)
- Reflektionen (1)
- Regionenlabeling (1)
- Registratur (1)
- Relevance Feedback (1)
- Rendering (1)
- Resource Description Framework (RDF) (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Reverse Engineering (1)
- RoboCup (1)
- Robocup 2008 (1)
- Roboter (1)
- Robotik (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Information Protokoll (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- Rückverfolgbarkeit (1)
- SOA (1)
- SPARQL (1)
- STOF Model (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Schema Information (1)
- Search engine (1)
- Security (1)
- Security Routing (1)
- Segmentation (1)
- Segmentierung (1)
- Semantic Data (1)
- Semantics (1)
- Service identification (1)
- Service-Identifizierung (1)
- Service-oriented Architectures (SOA) (1)
- Service-orientierte Architektur (1)
- Shader (1)
- Sicherheit Routing (1)
- Simulationswerkzeug (1)
- Smartphone (1)
- Smartphone Applikation (1)
- Social Games (1)
- Social Networking Platforms (1)
- Software (1)
- Software Development (1)
- Software Language (1)
- Software Technology (1)
- Software migration (1)
- Software techniques for object recognition (STOR) (1)
- Software-Migration (1)
- Softwarearchitektur (1)
- Softwareentwicklung (1)
- Softwareergonomie (1)
- Softwaretesting (1)
- Softwarewartung (1)
- Soziales Netzwerk (1)
- Sozialwissenschaftliche Simulation (1)
- Speaker Recognition (1)
- Specification (1)
- Specular (1)
- Spezifikation (1)
- Steuerung (1)
- Stochastic Logic (1)
- Stoffsimulation (1)
- Strassenkreuzung (1)
- Straßenzustand (1)
- Support System (1)
- Survey Research (1)
- Systembiologie (1)
- TAP (1)
- TBox (1)
- TRECVID (1)
- Tableau Calculus (1)
- Taxonomy (1)
- Technologischer Raum (1)
- Tenneco Automotive (1)
- Test Generation (1)
- Testen (1)
- Testgenerierung (1)
- Text (1)
- Text Analysis (1)
- Text Mining (1)
- Text classification (1)
- Texterkennung (1)
- Theorem prover (1)
- Theorembeweiser (1)
- Tokens (1)
- Tool Evaluation (1)
- Traceability (1)
- Tracing (1)
- Tracking-System (1)
- Transferfunction (1)
- Transferfunktion (1)
- Transport (1)
- Type System (1)
- Type system (1)
- Ultraschall (1)
- Ultrasound (1)
- Umfrage in Koblenz (1)
- Unified Modeling Language (UML ) (1)
- Unlink Prediction (1)
- Unsicheres Schließen (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- VCD (1)
- VIACOBI (1)
- Vascular analysis (1)
- Vegetation distribution (1)
- Verifikation (1)
- Virtual Company Dossier (1)
- Virtual characters (1)
- Virtuelle Realität (1)
- Visibility Skeleton (1)
- Visual Stimuli Discovery (1)
- Vocabulary Mapping (1)
- Vocabulary Reuse (1)
- Vocabulary Trainer (1)
- Volume Hatching (1)
- WEB (1)
- WLAN Fingerprinting (1)
- WSDL (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Wahrscheinlichkeitsrechnung (1)
- Wavelet (1)
- Web (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web Ontology Language (OWL) (1)
- Web Science (1)
- Web Services (1)
- Web log (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Weblog (1)
- Website (1)
- Wechselkursänderung (1)
- Werbung (1)
- WiFi Fingerprinting (1)
- Wissensbasis (1)
- Wissensmanagement (1)
- Word-of-Mouth (1)
- World Wide Web 2.0 (1)
- Wrapping (1)
- You-messages (1)
- acceptance (1)
- adaptive resonance theory (1)
- application programming interfaces (1)
- archiving (1)
- artifcial neural networks (1)
- artiffficial neural networks (1)
- artififfcial neural networks (1)
- assessment model (1)
- automated theorem prover (1)
- backpropagation (1)
- benefits (1)
- bias (1)
- blood analysis (1)
- business process management (1)
- by-stander effect (1)
- categorisation (1)
- collaboration (1)
- collaborative technologies (1)
- colour calibration (1)
- concept (1)
- concurrency (1)
- conflict detection (1)
- contexts of use (1)
- core ontologies (1)
- cultural dimensions (1)
- currency exchange rates (1)
- data mining (1)
- data protection (1)
- data warehouse (1)
- deductive (1)
- description logic (1)
- deutsche Hochschulen (1)
- diabetic retinopathy (1)
- diffusion (1)
- directed acyclic graphs (1)
- distinct object identifiers (1)
- distributed information systems (1)
- e-Commerce (1)
- e-learning (1)
- e-service (1)
- e-service quality (1)
- eGovernment (1)
- eSourcing (1)
- eXperience methodology (1)
- edge linking (1)
- estimation of algorithm efficiency (1)
- evaluation (1)
- event model (1)
- event-based systems (1)
- events (1)
- evolution (1)
- eye tracking (1)
- faceted search (1)
- fairness (1)
- finite state automata (1)
- first-order logic (1)
- folksonomies (1)
- functional web testing tools (1)
- gaze information (1)
- gradient method of training weight coefficients (1)
- grassland (1)
- groupwork (1)
- hybrid systems (1)
- hybride Automaten (1)
- hypertableaux (1)
- iCity project (1)
- image processing (1)
- image semantics (1)
- information retrieval (1)
- information system (1)
- jOWL (1)
- knowledge base (1)
- knowledge management system (1)
- knowledge work (1)
- landmarks (1)
- living book (1)
- logistic (1)
- long-living systems (1)
- mPayments (1)
- mathematical model (1)
- medical care (1)
- medical image processing (1)
- metadata formats (1)
- metadata standards (1)
- methodology (1)
- micro-agent (1)
- minimum self-contained graphs (1)
- mobile application (1)
- mobile devices (1)
- mobile facets (1)
- mobile health care (1)
- mobile interaction (1)
- model generation (1)
- model-driven engineering (1)
- modulares System (1)
- morphological operators (1)
- multiagent systems (1)
- multidimensional (1)
- natural language generation (1)
- networks (1)
- neural (1)
- parallel calculations (1)
- path planning (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- photo selection (1)
- plain language (1)
- points of interest (1)
- policy modelling (1)
- privacy by design (1)
- privacy impact assessment (1)
- privacy protection (1)
- procedural content generation (1)
- public key infrastructure (1)
- question answering (1)
- recurrent (1)
- region labeling (1)
- regression analysis (1)
- regular dag languages (1)
- requirements analysis (1)
- retina fundus images (1)
- rich multimedia presentations (1)
- risk (1)
- robotics (1)
- scaffolded writing (1)
- scene analysis (1)
- security (1)
- semantic annotation (1)
- semantic desktop (1)
- semantischer Desktop (1)
- sequent calculi (1)
- shiq (1)
- simulation (1)
- smartphone app (1)
- social media data (1)
- social object (1)
- software engineering (1)
- summative evaluation (1)
- survey in Koblenz (1)
- tag recommendation (1)
- tagging (1)
- time series (1)
- tool-integration (1)
- traceability (1)
- tracking (1)
- transformation (1)
- unique name assumption (1)
- usability study (1)
- vegetation modeling (1)
- verification (1)
- video games (1)
- virtual goods (1)
- visualization (1)
- web 2.0 (1)
- web-portal medical e-services (1)
- wireless sensor networks (1)
Die modellgetriebene Softwareentwicklung beabsichtigt die Spezifikation von Softwaresystemen durch Modelle zu vereinfachen und die automatisierte Entwicklung zu verbessern. Die Modellierungssprachen und Werkzeuge, die zur Modellierung von Systemen und Anwendungsdomänen herangezogen werden, werden in modellbasierten technologischen Räumen zusammengefasst. Ontologiebasierte technologische Räume enthalten Ontologiesprachen und Technologien zum Entwurf, der Anfrage und dem Schlussfolgern von Wissen. Mit der Verbreitung des semantischen Webs werden Ontologien in der Entwicklung von Software zunehmend eingesetzt.
In dieser Arbeit werden zur Kombination von technologischen Räumen Brückentechnologien vorgestellt. Transformationsbrücken übersetzen Modelle, Abbildungsbrücken stellen Beziehungen zwischen Modellen verschiedener technologischer Räume her und Integrationsbrücken verschmelzen Räume zu neuen allumfassenden technologischen Räumen. API Brücken erschaffen Interoperabilität zwischen Werkzeugen. Diese Arbeit beschäftigt sich insbesondere mit der Kombination von modellbasierten und ontologiebasierten technologischen Räumen. Nach einem Vergleich zwischen Sprachen und Werkzeugen der einzelnen Räume wird die Integrationsbrücke herangezogen um einen neuen gemeinsamen technologischen Raum zu erstellen, der den hybriden Gebrauch von Sprachen und den interoperablen Einsatz von Werkzeugen ermöglicht. Die Syntax und Semantik von Modellierungssprachen kann mit Hilfe von Ontologiesprachen spezifiziert werden. Die Korrektheit von Modellen wird durch den Einsatz von Ontologietechnologien gewährleistet. Ontologiebasierte Modellierungssprachen erlauben den Nutzen von Anfrage- und Schlussfolgerungstechnologien. Sie sind darüber hinaus so flexibel um verschiedene Anforderungen von Softwareentwicklern zu erfüllen. Domänenspezifische Sprachen unterstützen neben der Spezifikation von Systemen auch die konzeptionelle Beschreibung von Domänen durch Modelle, die aus möglichen Laufzeitinstanzen und deren Typen bestehen. Integrierte Ontologiesprachen helfen eine formale Semantik für Domänenmodellierungssprachen zu definieren und Ontologietechnologien ermöglichen das Schlussfolgern über Typen und Instanzen.
Alle Ansätze in dieser Arbeit werden mit Hilfe eines Szenarios, in dem die Konfigurationen für Familien von Netzwerkgeräte modelliert werden, veranschaulicht. Ferner werden die Implementationen aller Brückentechnologien zur Kombination von technologischen Räumen und alle Werkzeuge für die ontologiebasierte Entwicklung von Modellierungssprachen illustriert.
We present the user-centered, iterative design of Mobile Facets, a mobile application for the faceted search and exploration of a large, multi-dimensional data set of social media on a touchscreen mobile phone. Mobile Facets provides retrieval of resources such as places, persons, organizations, and events from an integration of different open social media sources and professional content sources, namely Wikipedia, Eventful, Upcoming, geo-located Flickr photos, and GeoNames. The data is queried live from the data sources. Thus, in contrast to other approaches we do not know in advance the number and type of facets and data items the Mobile Facets application receives in a specific contextual situation. While developingrnMobile Facets, we have continuously evaluated it with a small group of fifive users. We have conducted a task-based, formative evaluation of the fifinal prototype with 12 subjects to show the applicability and usability of our approach for faceted search and exploration on a touchscreen mobile phone.
An estimation of the number of multiplication and addition operations for training artififfcial neural networks by means of consecutive and parallel algorithms on a computer cluster is carried out. The evaluation of the efficiency of these algorithms is developed. The multilayer perceptron, the Volterra network and the cascade-correlation network are used as structures of artififfcial neural networks. Different methods of non-linear programming such as gradient and non-gradient methods are used for the calculation of the weight coefficients.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
This paper documents the development of an abstract physics layer (APL) for Simspark. After short introductions to physics engines and Simspark, reasons why an APL was developed are explained. The biggest part of this paper describes the new design and why certain design choices were made based on requirements that arose during developement. It concludes by explaining how the new design was eventually implemented and what future possibilities the new design holds.
Software Projekte nutzen typischerweise mehrere externe Programmbibliotheken. Die Schnittstelle, die solch eine Programmbibliothek zur Verfügung stellt, wird als API (application programming interface) bezeichnet. APIs werden üblicherweise laufend weiterentwickelt, was es notwendig macht, dass die Anwendungen, welche sie verwenden, entsprechend modifiziert werden. Zudem kann es kann vorkommen, dass eine Programmbibliothek durch eine andere ersetzt werden soll, was ebenfalls zur Folge hat, dass die Anwendungen, wo die API verwendet wurde, modifiziert werden müssen. Den Vorgang eine Anwendung so zu modifizieren, dass eine andere API verwendet wird, bezeichnet man als API Migration. Manuelle API Migration ist eine mühselige und zeitintensive Aufgabe, deshalb ist automatische API Migration ein aktives Forschungsfeld. Ein verwandtes Forschungsgebiet ist API Analyse, welches Daten zur Verfügung stellt, die helfen können Werkzeuge für API Migration zu entwickeln. Die hier vorliegende Arbeit behandelt Techniken und Technologien für die Entwicklung von Werkzeugen für API Analyse und API Migration. Die Ergebnisse werden als Design Patterns präsentiert, welche auf unseren Erfahrungen mit API Analyse und API Migration innerhalb des Software Languages Teams basieren.
In dieser Arbeit wird der Nutzen von GPGPU (Allzweckberechnungen auf Grafikprozessoren) zur robusten Deskription von natürlichen, markanten Bildmerkmalen mit Hilfe der Grafikprozessoren mobiler Geräte bewertet. Dazu wurde der SURF-Deskriptor [4] mit OpenGL ES 2.0/GLSL ES 1.0 implementiert und dessen Performanz auf verschiedenen mobilen Geräten ausgiebig evaluiert. Diese Implementation ist um ein Vielfaches schneller als eine vergleichbare CPU-Variante auf dem gleichen Gerät. Die Ergebnisse belegen die Tauglichkeit moderner, mobiler Grafikbeschleuniger für GPGPU-Aufgaben, besonders für die Erkennungsphase von NFT-Systemen (Tracking mit natürlichen, markanten Bildmerkmalen), die in Augmented-Reality-Anwendungen genutzt werden. Die nötigen Anpassungen am Algorithmus des SURF-Deskriptors, um diesen effizient auf mobilen GPUs nutzen zu können, werden dargelegt. Weiterhin wird ein Ausblick auf ein GPGPU-gestütztes Tracking-Verfahren gegeben.
Modern Internet and Intranet techniques, such as Web services and virtualization, facilitate the distributed processing of data providing improved flexibility. The gain in flexibility also incurs disadvantages. Integrated workflows forward and distribute data between departments and across organizations. The data may be affected by privacy laws, contracts, or intellectual property rights. Under such circumstances of flexible cooperations between organizations, accounting for the processing of data and restricting actions performed on the data may be legally and contractually required. In the Internet and Intranet, monitoring mechanisms provide means for observing and auditing the processing of data, while policy languages constitute a mechanism for specifying restrictions and obligations.
In this thesis, we present our contributions to these fields by providing improvements for auditing and restricting the data processing in distributed environments. We define formal qualities of auditing methods used in distributed environments. Based on these qualities, we provide a novel monitoring solution supporting a data-centric view on the distributed data processing. We present a solution for provenance-aware policies and a formal specification of obligations offering a procedure to decide whether obligatory processing steps can be met in the future.
Augmented Reality bedeutet eine reale Umgebung mit, meistens grafischen, virtuellen Inhalten zu erweitern. Oft sind dabei die virtuellen Inhalte der Szene jedoch nur ein Overlay und interagieren nicht mit den realen Bestandteilen der Szene. Daraus ergibt sich ein Authentizitätsproblem für Augmented Reatliy Anwendungen. Diese Arbeit betrachtet Augmented Reality in einer speziellen Umgebung, mit deren Hilfe eine authentischere Darstellung möglich ist. Ziel dieserArbeitwar die Erstellung eines Systems, das Zeichnungen durch Techniken der Augmented Reality mit virtuellen Inhalten erweitert. Durch das Anlegen einer Repräsentation soll es der Anwendung dabei möglich sein die virtuellen Szeneelementemit der Zeichnung interagieren zu lassen. Dazu wurden verschiedene Methoden aus den Bereichen des Pose Tracking und der Sketch Recognition disktutiert und für die Implementierung in einem prototypischen System ausgewählt. Als Zielhardware fungiert ein Android Smartphone. Kontext der Zeichnungen ist eine Dungeon Karte, wie sie in Rollenspielen vorkommt. Die virtuellen Inhalte nehmen dabei die Form von Bewohnern des Dungeons an, welche von einer Agentensimulation verwaltet werden. Die Agentensimulation ist Gegenstand einer eigenen Diplomarbeit [18]. Für das Pose Tracking wurde ARToolkitPlus eingesetzt, ein optisches Tracking System, das auf Basis von Markern arbeitet. Die Sketch Recognition ist dafür zuständig die Inhalte der Zeichnung zu erkennen und zu interpretieren. Dafür wurde ein eigener Ansatz implementiert der Techniken aus verschiedenen Sketch Recognition Systemen kombiniert. Die Evaluation konzentriert sich auf die technischen Aspekte des Systems, die für eine authentische Erweiterung der Zeichnung mit virtuellen Inhalten wichtig sind.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
Die Magnetresonanztomographie (MRT) ist ein bildgebendes Verfahren, das in der medizinischen Diagnostik zur Darstellung von Struktur und Funktion der Gewebe und Organe im Körper eingesetzt wird. Diffusionsgewichtete Bildgebung ist ein spezielles bildgebendes MRT Verfahren, welches es ermöglicht, nichtinvasiv und in vivo Einblicke in den Verlauf von Nervenbahnen zu geben. Es erlaubt damit, Aussagen über die Struktur und Integrität dieser Verbindungsbahnen zu treffen. Im klinischen Alltag findet diese Modalität Anwendung in der neurochirurgischen Operationsplanung, wie beispielsweise bei Resektionen von Läsionen, die in wichtigen funktionellen oder tiefiegenden Arealen liegen, wo die Beschädigungsgefahr wichtiger Nervenbahnen gegeben ist. Kommt es im Zuge der Operation zu einer etwaigen Durchtrennung von wichtigen Bahnen, kann dies zu erheblichen funktionellen Beeinträchtigung führen. Diese Arbeit gibt eine Einführung in die MRT-Bildgebung und wird sich im Speziellen mit der Aufnahme von diffusionsgewichtetenMRT- Daten beschäftigen. Generell besteht das Problem, dass das Auflösungsvermögen von Diffusionsdaten relativ niedrig ist in Relation zum Aufnahmeobjekt. So werden in einem einzelnen 3D Volumenelement, auch Voxel genannt, eine Reihe von Nerventrakten abgebildet, die sich beispielsweise kreuzen, aufsplitten oder auffächern. Hier besteht die Notwendigkeit, diese Voxel zu identifizieren und zu klassifizieren, um auch in schwierigen Regionen aus den lokalen Diffusionsdaten die Verläufe von Nervenbündeln möglichst exakt zu rekonstruieren. Diese Rekonstruktion wird durch die sogenannte Traktographie realisiert. Im Zuge dieser Arbeit werden wir existierende Rekonstruktionsmethoden, wie beispielsweise diffusion tensor imaging (DTI) und q-ball imaging (QBI) auf synthetisch generierten Daten untersuchen. Wir werden herausstellen, welche wertvollen Informationen die rekonstruierten Daten liefern können und welche individuellen Einschränkungen es gibt. QBI rekonstruiert eine orientation distribution function (ODF), deren lokalen Maxima in vielen Fällen mit den Richtungen der Nervenbahnen übereinstimmen. Wir bestimmen diese lokalen Maxima. Auf den Metriken des Diffusionstensors wird eine neue voxelbasierte Klassifikation vorgestellt. Die Vereinigung von voxelbasierter Klassifikation, lokalen Maxima und globalen Informationen aus der Nachbarschaft eines Voxels ist der Hauptbeitrag dieser Arbeit und führt zur Entwicklung eines globalen Klassifikators, der mögliche Traktographie-Richtungen vorgibt und asymmetrische Konfigurationen ermittelt. Im Anschluss wird ein eigener Traktographie-Algorithmus vorgestellt, der auf den Ergebnissen des globalen Klassifikators arbeitet und somit auch Aufsplittungen von Nervenbahnen abbilden kann.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Zur Entwicklung von Webanwendungen und Webseiten existieren viele verschiedene Technologien und Konzepte. Jede dieser Technologien implementiert bestimmte Anforderungen, wie z.B. das Erzeugen von Inhalten oder die Kommunikation zwischen Client und Server. Verschiedene Konzepte helfen, diese Technologien innerhalb einer Webanwendung zusammenzufügen. Nicht zuletzt Architekturstile und -muster gehören zu diesen Konzepten. Die Diplomarbeit beschreibt einen Ansatz zur Erstellung einer Taxonomie dieser Technologien und Konzepte unter Zuhilfenahme der freien Enzyclopädie Wikipedia, im speziellen der Kategorie "Web-Application Framework". Unser 101companies Projekt benutzt Implementationen, um die einem Web-Application-Framework zugrunde liegenden Technologien zu identifizieren und zu klassifizieren. Innerhalb des Projekts werden Taxonomien und Ontologien mit Hilfe dieser Klassifikationen erstellt. Zusätzlich beschreibt die Ausarbeitung, wie nützliche Web-Application-Frameworks mit der Hilfe von Wikipedia priorisiert werden. Abschließend enthält die Diplomarbeit auch die Dokumentation der betreffenden Implementationen.
The paper deals with a specific introduction into probability propagation nets. Starting from dependency nets (which in a way can be considered the maximum information which follows from the directed graph structure of Bayesian networks), the probability propagation nets are constructed by joining a dependency net and (a slightly adapted version of) its dual net. Probability propagation nets are the Petri net version of Bayesian networks. In contrast to Bayesian networks, Petri nets are transparent and easy to operate. The high degree of transparency is due to the fact that every state in a process is visible as a marking of the Petri net. The convenient operability consists in the fact that there is no algorithm apart from the firing rule of Petri net transitions. Besides the structural importance of the Petri net duality there is a semantic matter; common sense in the form of probabilities and evidencebased likelihoods are dual to each other.
Particle Swarm Optimization ist ein Optimierungsverfahren, das auf der Simulation von Schwärmen basiert.
In dieser Arbeit wird ein modifizierter Algorithmus, der durch Khan et al. 2010 eingeführt wurde, zur Schätzung der lokalen Kamerapose in 6DOF verwendet. Die Poseschätzung basiert auf kontinuierlichen Farb-und Tiefendaten, die durch einen RGB-D Sensor zur Verfügung gestellt werden. Daten werden von unterschiedlichen Posen aufgenommen und als gemeinsames Model registriert. Die Genauigkeit und Berechnungsdauer der Implementierung wird mit aktuellen Algorithmen verglichen und in unterschiedlichen Konfigurationen evaluiert.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Dualizing marked Petri nets results in tokens for transitions (t-tokens). A marked transition can strictly not be enabled, even if there are sufficient "enabling" tokens (p-tokens) on its input places. On the other hand, t-tokens can be moved by the firing of places. This permits flows of t-tokens which describe sequences of non-events. Their benefiit to simulation is the possibility to model (and observe) causes and effects of non-events, e.g. if something is broken down.