004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (162)
- Studienarbeit (136)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (81)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (543)
- Englisch (201)
- Mehrsprachig (3)
Volltext vorhanden
- ja (747) (entfernen)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Robotik (10)
- Computergraphik (9)
- Computersimulation (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
Institut
- Fachbereich 4 (270)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (48)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
RMTI (RIP with Metric based Topology Investigation) wurde in der AG Rechnernetze an der Universität Koblenz-Landau entwickelt. RMTI stellt eine Erweiterung zum RIP (Routing Information Protocol) dar, die das Konvergenzverhalten bei Netzwerkveränderungen, insb. bei Routingschleifen, verbessern soll. Dies geschieht durch Erkennen von Routingschleifen und Reduzieren des Count-to-infinity Problems. Um dieses gewünschte Verhalten nachweisen zu können, bedarf eine reichhaltige Evaluierung des RMTI- Algorithmus. Hierzu wurde in der gleichen Arbeitsgruppe die Client-/Server-Applikation XTPeer entwickelt. In Kombination mit anderen Software wie VNUML und Quagga Routing Suite lässt sich per XT-Peer der Algorithmus evaluieren. Die Applikation XTPeer generiert durch die Simulationen Daten. Diese können in Form von XML konforme SDF-Dateien exportiert werden. Diese können ohne weitere Auswertungen wieder in die XTPeer Applikation importiert werden. Die Evaluierung der Simulationen findet automatisiert nur an der aktuellen Simulation statt. Evaluierung über mehrere Simulationen muss der Benutzer manuell berechnen. Um diese Evaluierungsarbeiten für den Benutzer zu vereinfachen, verfolgt die vorliegende Diplomarbeit daher das Ziel, die XTPeer Applikation mit einem Auswertungsmodul zu erweitern. Die Auswertungen soll sich über alle gespeicherten Simulationsdaten und nicht wie bisher nur über die aktuell laufende Simulation erstrecken. Dies ermöglicht bessere statistisch verwertbare Aussagen. Zusätzlich können diese Auswertungsergebnisse grafisch unterstrichen werden.
Im Rahmen dieser Arbeit wird ein Programm in Java entwickelt, mit dem man sich beliebige Netzwerke graphisch anzeigen lassen kann. Diese Netzwerke müssen im Vorfeld mit Hilfe eines Configuration-Files beschrieben werden und dürfen nur aus Layer-2-Switches und Hosts aufgebaut sein. Nach Ladung eines solchen Files ins Programm kann das Netzwerk dort visualisiert werden. Darauf kann man dann den Spanning-Tree-Algorithmus IEEE 802.1D laufen lassen. Das Programm bietet auch die Möglichkeit, verschiedene Attribute der Switches und ihrer Ports nach Belieben einzustellen. Neben dem reinen Algorithmus werden die Hosts sich gegenseitig auch noch Normdaten zuschicken, wodurch die einzelnen STA-Mac-Tabellen aufgebaut werden. Ein weiteres Ziel ist es, die Switches mittels Threads parallel und unabhängig voneinander arbeiten zu lassen. Dies hat zur Folge, dass die Switches auf kein globales Wissen zugreifen können. Es gibt keine übergeordnete Instanz, die alle Switches lenkt und steuert. Diese Realisierung kommt der echten Arbeitsweise eines Netzwerks näher, als wenn alle Switches immer sofort über alle Abläufe Bescheid wissen.
Der Prozess der Mustererkennung gliedert sich in mehrere Teilschritte, wobei letztlich aus unbekannten Datensätzen Muster erkannt und automatisch in Kategorien eingeordnet werden sollen. Dafür werden häufig Klassiffkatoren verwendet, die in einer Lernphase anhand von bekannten Testdaten trainiert werden. Viele bestehenden Softwarelösungen bieten Hilfsmittel für spezielle Mustererkennungsaufgaben an, aber decken nur selten den gesamten Lernprozess ab. Im Rahmen dieser Studienarbeit wurde aus diesem Grund ein Framework entwickelt, welches allgemeine Aufgaben eines Klassiffkationssystems für Bilddaten als eigenständige Komponenten integriert. Es ist schnittstellenorientiert, leicht erweiterbar und bietet eine graphische Benutzeroberfläche.
The processing of data is often restricted by contractual and legal requirements for protecting privacy and IPRs. Policies provide means to control how and by whom data is processed. Conditions of policies may depend on the previous processing of the data. However, existing policy languages do not provide means to express such conditions. In this work we present a formal model and language allowing for specifying conditions based on the history of data processing. We base the model and language on XACML.
Ein Netzwerk, wie beispielsweise das Internet, ist eine Menge von Netzen, die durch Router miteinander verbunden sind. Ein Router ist ein Computer, der mit mehreren Netzwerkschnittstellen ausgerüstet und an mehrere Netze angeschlossen ist, um zwischen diesen Pakete zu vermitteln. Man kann ein Netzwerk auch als Graph repräsentieren, wobei Router als Knoten und Netze als Kanten angesehen werden können. Diesen Graph nennt man die Topologie des Netzwerks. Soll ein Paket in ein anderes Netz als das eigene gesendet werden, so wird es normalerweise dem sogenannten Default-Router gesendet. Dieser besitzt (wie jeder Router) eine Tabelle (die sogenannte Forwardingtabelle), die alle Netze enthält. Zusätzlich ist in der Tabelle der jeweilige Router eingetragen, über den das Netz am besten erreicht werden kann. So wird das Paket von einem Router zum nächsten geleitet, bis es das Zielnetz erreicht. Dabei schlägt jeder Router in seiner Tabelle nach, welches der nächste Router auf dem günstigsten Weg zum Zielnetz ist. Ein Routingprotokoll kümmert sich um den automatischen Austausch von Informationen zwischen den Routern, um die Forwardingtabelle aufzubauen und auf dem aktuellen Stand zu halten. Sind die Tabellen aller Router auf dem aktuellen Stand, so befindet sich das Netzwerk in einem konvergenten Zustand. Die Zeit, die benötigt wird, um die Forwardingtabelle aufzubauen beziehungsweise sie nach einer Änderung der Topologie zu aktualisieren, wird Konvergenzzeit genannt. Das Routingprotokoll RIP ist ein bekanntes und gut erforschtes Distanzvektor-Protokoll. Jedoch gibt es bisher nur wenige Untersuchungen der Konvergenzeigenschaften (wie z.B. benötigte Zeit, um in einen konvergenten Zustand zu gelangen, oder das dabei erzeugte Trafficvolumen) dieses Protokolls. Ziel der Arbeit ist es einen Zusammenhang zwischen den Topologieeigenschaften eines Netzwerks und den Konvergenzeigenschaften bei Verwendung des RIP-Routingprotokills experimentell zu ermitteln. Hierfür wurden über 5000 Einzelmessungen mit verschiedenen Topologien durchgeführt und statistisch ausgewertet. Aus den Ergebnissen wurden Formeln abgeleitet, mit deren Hilfe sich für ein beliebiges Netzwerk die Konvergenzeigenschaften anhand seiner Topologieeigenschaften approximieren lassen.
This thesis introduces fnnlib, a C++ library for recurrent neural network simulations that I developed between October 2009 and March 2010 at Osaka University's Graduate School of Engineering. After covering the theory behind recurrent neural networks, backpropagation through time, recurrent neural networks with parametric bias, continuous-time recurrent neural networks, and echo state networks, the design of the library is explained. All of the classes as well as their interrelationships are presented along with reasons as to why certain design decisions were made. Towards the end of the thesis, a small practical example is shown. Also, fnnlib is compared to other neural network libraries.
Die Entwicklung eines IT-gestützten europäischen Systems zur öffentlichen Auftragsvergabe ist ein wichtiges Ziel der EU um die Effizienz, Transparenz und Wettbewerbsfähigkeit im öffentlichen Beschaffungswesen des europäischen Binnenmarktes zu verbessern. Ein großes Hindernis für die grenzüberschreitende elektronische Abwicklung der Beschaffungsprozesse ist die Heterogenität der nationalen Beschaffungssysteme in Bezug auf technische, organisatorische und rechtliche Unterschiede. Zur Überwindung dieses Hindernisses finanziert die Europäische Kommission einige Initiativen, um grenzüberschreitend Interoperabilität der öffentlichen Beschaffungssysteme zu erreichen. Pan European Public Procurement OnLine (PEPPOL) ist ein solches Projekt, das die Pilotierung eines interoperablen pan-europäischen Systems zur elektronischen Unterstützung der öffentlichen Beschaffungsprozesse als Ziel hat. rnrnService-orientierte Architekturen(SOA) scheinen einen vielversprechenden Ansatz für die Realisierung solch verteilter Architekturen zu liefern, da sie die lose Kopplung und Interoperabilität zwischen Systemkomponenten fördert. Diese Masterarbeit diskutiert daher das SOA(Service-orientierte Architektur)-Konzept und die Fragestellung, wie seine Konzepte, Methoden und Technologien für die Entwicklung von interoperablen IT-Systemen für die elektronische Vergabe öffentlicher Aufträge verwendet werden können. Diese Diskussion wird durch eine praktische Anwendung des diskutierten service-orientierten Ansatzes erweitert, in dem die Konzeption und prototypische Implementierung eines Teilsystems der VCD Domäne durchgeführt wird. Zu diesem Zweck werden wichtige Aspekte bezüglich Interoperabilität und damit verbundener Standards und Technologien untersucht und im Kontext der öffentlichen Auftragsvergabe betrachtet.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
Hybrid automata are used as standard means for the specification and analysis of dynamical systems. Several researches have approached them to formally specify reactive Multi-agent systems situated in a physical environment, where the agents react continuously to their environment. The specified systems, in turn, are formally checked with the help of existing hybrid automata verification tools. However, when dealing with multi-agent systems, two problems may be raised. The first problem is a state space problem raised due to the composition process, where the agents have to be parallel composed into an agent capturing all possible behaviors of the multi-agent system prior to the verification phase. The second problem concerns the expressiveness of verification tools when modeling and verifying certain behaviors. Therefore, this paper tackles these problems by showing how multi-agent systems, specified as hybrid automata, can be modeled and verified using constraint logic programming(CLP). In particular, a CLP framework is presented to show how the composition of multi-agent behaviors can be captured dynamically during the verification phase. This can relieve the state space complexity that may occur as a result of the composition process. Additionally, the expressiveness of the CLP model flexibly allows not only to model multi-agent systems, but also to check various properties by means of the reachability analysis. Experiments are promising to show the feasibility of our approach.
Moderne Instant-Messaging-Systeme als Plattform für sicherheitskritische kollaborative Anwendungen
(2010)
Während unter dem Begriff Instant Messaging (IM) ursprünglich nur der Austausch von Textnachrichten (Messaging, Chat) verstanden wurde, bieten heutige Instant-Messaging-Systeme (IM-Systeme, IMS) darüber hinaus viele weitere Funktionen wie Sprachtelefonie, Videokonferenz oder Dateiübertragung an. Aktuelle IM-Systeme werden vor allem in der privaten unverbindlichen Kommunikation eingesetzt. Diese Systeme eignen sich " wie in dieser Arbeit gezeigt wird " aber auch für den Einsatz im geschäftlichen Kontext. Zu den Vorzügen, die sich aus der Nutzung eines IM-Systems ergeben, gehören beispielsweise die spontane, flexible und kostengünstige Nutzung unabhängig von Ort und Zeit, die einfache Verteilung von Informationen an mehrere Teilnehmer und die Verfügbarkeit verschiedener Kommunikationskanäle für unterschiedliche Aufgaben. Der Ursprung dieser Systeme (kurzer informeller Nachrichtenaustausch), ihr modularer Aufbau, die unkontrollierte Installation auf Clients sowie der daraus entstehende Informationsfluss führten zu zahlreichen Fragen und Herausforderungen bezüglich ihrer Sicherheit. So kann beispielsweise nicht ohne weiteres kontrolliert werden, welche Informationen ein Unternehmen auf diesem Weg verlassen. Anders als bei anderen elektronischen Kommunikationsmedien (E-Mail, Web) sind hier noch keine bekannten Sicherheitsmechanismen etabliert (z. B. Spam-Filter, Sicherheitsfunktionen von Webbrowsern). Diese Fragestellungen sind zu betrachten und durch geeignete Maßnahmen zu beantworten, wenn solche Systeme für die Arbeit mit sensiblen und vertraulichen Informationen eingesetzt werden sollen. Ziel der hier vorgestellten Arbeit ist es, Instant-Messaging-Systeme so zu gestalten, dass durch die Konzeption (bzw. Erweiterung) von geeigneten Sicherheitsmechanismen einerseits die einfache und spontane Nutzung der Systeme möglich bleibt und andererseits trotzdem eine sichere, authentifizierte und verbindliche Kollaboration unterstützt wird.
Im Rahmen dieser Arbeit wird ein Webservice (SOA) entworfen und implementiert, mit dem eine Audiodatei auf Inhalte eines Wasserzeichens ferngesteuert überprüft werden kann. Die Arbeit ist Teil des URM-Projekts (Usage Rights Management), das an der Universität Koblenz-Landau entwickelt wird. Dabei handelt es sich um ein Konzept der Lizenzierung, bei dem die Nutzer über ihre Rechte an erworbenen digitalen Gütern informiert werden. Die Arbeit stellt am Beispiel von WAV-Dateien einen rudimentären Weg dar, wie im Rahmen von URM die Informationen, die bei der Lizenzerstellung verwendet werden, aus einem digitalen Medium extrahiert werden können.
Im Mittelpunkt dieser Diplomarbeit stand die Entwicklung eines Modells zur Charakterisierung einer HDR-Kamera mit CMOS-Sensorelement und logarithmischer Kamerakennlinie. Unter Beachtung der spezifischen Eigenschaften der Kamera sollte ein Verfahren gefunden werden, um von der Kamera aufgenommene Farbwerte, farbmetrisch korrekt in einen geräteunabhängigen Farbraum zu überführen. Zu diesem Zweck wurde im Rahmen dieser Arbeit ein zweiteiliges Charakterisierungsmodell entwickelt, welches zwischen Vorwärtsmodell und Inversem Modell unterscheidet.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines Autorensystems zum modellieren von 3D Szenen mit physikalischer Beschreibung. Ähnlich einem herkömmlichen 3D Modellierungstool soll ein Benutzer Szenen erstellen können mit dem Unterschied, dass bei der Erstellung der Geometrie physikalische Eigenschaften direkt berechnet und eingestellt werden können. Wichtig für solche Systeme ist vor allem ihre Erweiterbarkeit und Anpassungsfähigkeit an die entsprechenden Anforderungen des Benutzers. Der Fokus liegt hierbei auf der Entwicklung einer einfachen Architektur, die leicht erweiterbar und veränderbar ist.
Einige akademische Arbeiten behaupten, dass Software, die in einem offenen Prozess erstellt wurde, strukturierter ist, als Programme, die im geschlossenen Umfeld entstanden sind. Die Rede ist hier von Open Source und Closed Source. Der Nachweis dieser Annahme wird mit der Technik der so genannten Design Structure Matrix (DSM) erbracht. DSM erlauben die Visualisierung der Struktur einer Software und ermöglichen das Berechnen von Metriken, mit denen dann der Level an Modularität der einzelnen Open Source Software (OSS) verglichen werden kann. Unter zu Hilfename dieser Technik geht die Diplomarbeit der Frage nach, ob ein Zusammenhang zwischen Geschäftsmodell und OSS existiert.
Existing tools for generating application programming interfaces (APIs) for ontologies lack sophisticated support for mapping the logics-based concepts of the ontology to an appropriate object-oriented implementation of the API. Such a mapping has to overcome the fundamental differences between the semantics described in the ontology and the pragmatics, i.e., structure, functionalities, and behavior implemented in the API. Typically, concepts from the ontology are mapped one-to-one to classes in the targeted programming language. Such a mapping only produces concept representations but not an API at the desired level of granularity expected by an application developer. We present a Model-Driven Engineering (MDE) process to generate customized APIs for ontologies. This API generation is based on the semantics defined in the ontology but also leverages additional information the ontology provides. This can be the inheritance structure of the ontology concepts, the scope of relevance of an ontology concept, or design patterns defined in the ontology.
Für die realistische Betrachtung einer virtuellen Szene spielt neben der direkten Beleuchtung auch die Ausbreitung des indirekten Lichtes eine wichtige Rolle. Die Berechnung der indirekten Beleuchtung benötigt grundsätzlich Informationen über die gesamte Szene, nicht nur über den für die Kamera sichtbaren Ausschnitt, der in bildraumbasierten Techniken zum Einsatz kommt. Mittels Voxelisierung kann die Szene in eine dreidimensionale, diskrete und GPU-freundliche Repräsentation überführt werden. In dieser Arbeit werden Voxelrepräsentationen hinsichtlich ihrer Eignung für den globalen Lichtaustausch in dynamischen und großen Szenen untersucht. Nach einer Einführung und einem Literaturüberblick über existierende Voxelisierungs- und Beleuchtungsverfahren, die Voxel als Grundlage nutzen, wird ein Voxelisierungsverfahren entwickelt, das sich für Szenen mit dynamischen Objekten eignet. Auf der Grundlage des Strahlenschnitt-Tests mit binärer Voxelhierarchie werden dann zwei Beleuchtungsalgorithmen umgesetzt, implementiert und evaluiert: Monte-Carlo-Integration der Hemisphäre eines Szenenpunktes und Beleuchtung der Szenenpunkte mit virtuellen Punktlichtquellen.
Im Rahmen dieser Arbeit soll das Software-Modellierungstool Enterprise Architect so erweitert werden, dass die Trennung der Belange entsprechend dem erweiterten Hyperspace-Modell von Lohmann ermöglicht wird. Daneben soll auch die Bestimmung so genannter Slices ermöglicht werden. Bei einem Slice handelt es sich um die Menge aller Belange und syntaktischen Einheiten, welche mit einem oder mehreren Belangen direkt oder transitiv verknüpft sind. Die Idee der Bestimmung solcher Slices ist graphenorientiert: Die transitive Hülle der ausgewählten Belange und der mit diesen verknüpften Belange wird bestimmt. Dies kann auf bestimmte Kantenarten, welche die Arten der Verknüpfung von Belangen widerspiegeln, eingeschränkt werden. Bevor dies implementiert werden kann, muss untersucht werden, ob die Funktionalität mit den im Enterprise Architect gegebenen Möglichkeiten realisiert werden kann. Ist dies nicht der Fall, so müssen Modelle aus dem Enterprise Architect zunächst mit Hilfe von JGraLab in Graphen überführt werden, damit anschließend die Slices unter Anwendung der Graphenabfragesprache Graph Repository Query Language (GreQL) bestimmt werden können. Die Funktionalitäten sollen in einem gemeinsamen Software-Baustein realisiert werden, der sich konform zu den für den Enterprise Architect vorgegebenen Schnittstellen verhalten muss und keine Konflikte im Programmablauf verursachen kann.
In recent development, attempts have been made to integrate UML and OWL into one hybrid modeling language, namely TwoUse. This aims at making use of the benefits of both modeling languages and overcoming the restrictions of each. In order to create a modeling language that will actually be used in software development an integration with OCL is needed. This integration has already been described at the contextual level in, however an implementation is lacking so far. The scope of this paper is the programatical implementation of the integration of TwoUse with OCL. In order to achieve this, two different OCL implementations that already provide parsing and interpretation functionalities for expressions over regular UML. This paper presents two attempts to extend existing OCL implementations, as well as a comparison of the existing approaches.
Die Beschreibung des Verhaltens eines Multi-Agenten-Systems (MAS) ist eine fordernde Aufgabe, besonders dann, wenn es in sicherheitskritischen Umgebungen eingesetzt werden soll. Denn in solchen Umgebungen muss die Beschreibung besonders sorgfältig ausgeführt werden um Seiteneffekte zu vermeiden, die ungewünschte oder sogar zerstörerische Folgen haben könnten. Deshalb sind formale Methoden nützlich, die auf mathematischen Modellen des zu entwerfenden Systems basieren. Sie erlauben es nicht nur das System formal auf verschiedenen Abstraktionsebenen zu spezifizieren, sondern auch seine Konsistenz noch vor der Implementierung zu verifizieren. Das Ziel der formalen Spezifikation ist eine präzise und eindeutige Beschreibung des Verhaltens des Multi-Agenten-Systems, während die Verifikation darauf abzielt, geforderte Eigenschaften dieses Systems zu beweisen. Üblicherweise wird das Verhalten eines Agenten als diskrete Änderung seines Zustands im Bezug auf externe oder interne Aktionen aufgefasst. Jedes mal, wenn eine Aktion auftritt, ändert sich der Zustand des Agenten. Deshalb sind Zustandsübergangsdiagramme bzw. endliche Automaten ein naheliegender Ansatz das Verhalten zu modellieren. Ein weiterer Vorteil einer solchen Beschreibung ist, dass sie sich für das sogenannte Model Checking eignet. Dabei handelt es sich um eine automatische Analysetechnik, die bestimmt, ob das Modell des Systems spezifizierten Eigenschaften genügt. Allerdings muss in realistischen, physikalischen Umgebungen neben dem diskreten auch das kontinuierliche Verhalten des Multi-Agenten-Systems betrachtet werden. Dabei könnte es sich beispielsweise um die Schussbewegung eines Fußballspieler-Agenten, den Prozess des Löschens durch einen Feuerwehr-Agenten oder jedes andere Verhalten handeln, das auf zeitlichen physikalischen Gesetzen basiert. Die üblichen Zustandsübergangsdiagramme sind nicht ausreichend, um diese beiden Verhaltensarten zu kombinieren. Hybride Automaten stellen jedoch eine elegante Lösung dar. Im Wesentlichen erweitern sie die üblichen Zustandsübergangsdiagramme durch Methoden, die sich mit kontinuierlichen Aktionen befassen. Die Zustandsübergänge modellieren weiterhin die diskreten Verhaltenswechsel, während Differentialgleichungen verwendet werden um das kontinuierliche Verhalten zu beschreiben. Besonders geeignet erscheinen Hybride Automaten, weil ihre formale Semantik die Verifikation durch Model Checking erlaubt. Deshalb ist das Hauptziel dieser Arbeit, Hybride Automaten für die Modellierung und die Verifikation des Verhaltens von Multi-Agenten-Systemen einzusetzen. Jedoch bringt ihr Einsatz mehrere Probleme mit sich, die betrachtet werden sollten. Zu diesen Problemfeldern zählen Komplexität, Modularität und die Aussagestärke der Modelle. Diese Arbeit befasst sich mit diesen Problemen und liefert mögliche Lösungen.