004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (185)
- Bachelorarbeit (163)
- Studienarbeit (137)
- Ausgabe (Heft) zu einer Zeitschrift (126)
- Masterarbeit (84)
- Dissertation (48)
- Konferenzveröffentlichung (6)
- Buch (Monographie) (1)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (546)
- Englisch (203)
- Mehrsprachig (3)
Schlagworte
- Bildverarbeitung (13)
- Augmented Reality (10)
- Computersimulation (10)
- Robotik (10)
- Computergraphik (9)
- OpenGL (8)
- Routing (8)
- Semantic Web (8)
- Computerspiel (7)
- Informatik (7)
Institut
- Fachbereich 4 (273)
- Institut für Computervisualistik (222)
- Institut für Informatik (114)
- Institut für Wirtschafts- und Verwaltungsinformatik (104)
- Institut für Management (49)
- Institut für Softwaretechnik (47)
- Institute for Web Science and Technologies (34)
- Institut für Integrierte Naturwissenschaften (4)
- An-Institute (1)
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
In der heutigen Robotik-Forschung soll hauptsächlich die Interaktion von autonomen, mobilen Robotern mit vorher nicht bekannten Umgebungen ermöglicht werden. Eines der grundlegendsten Probleme, das in diesem Kontext gelöst werden muss, ist die Frage, wo der Roboter ist und wie seine Umgebung in unmittelbarer Nähe, aber auch an bereits besuchten Orten aussieht " das sogenannte SLAM Problem.
In dieser Arbeit wird ein GraphSLAM System vorgestellt, das einen graphbasierten Lösungsansatz für dieses Problem darstellt. Ein solches System besteht aus einem Frontend und einem Backend. Das Frontend hat die Aufgabe, aus den Sensordaten einen Graphen zu konstruieren, der die relative Lage der Messungen zueinander widerspiegelt. Da sich Messungen widersprechen können, ist ein solcher Graph im Allgemeinen inkonsistent. Das Backend hat nun die Aufgabe, diesen Graphen zu optimieren, d. h. eine Konfiguration der Knoten zu bestimmen, die sich nur minimal widerspricht. Knoten repräsentieren Roboterposen, die aufgrund der enthaltenen Rotationen sog. Mannigfaltigkeiten sind und keinen gewöhnlichen Vektorraum bilden. Dies wird in der Arbeit konsequent berücksichtigt, was zu einem sehr effizienten und eleganten Optimierungsverfahren führt.
Cicero ist eine asynchrone Diskussionsplattform, die im Rahmen der Arbeitsgruppe Informationssysteme und Semantic Web (ISWeb) der Universität Koblenz-Landau entwickelt wurde. Die webbasierte Anwendung folgt dem Gedanken eines semantischen Wikis und soll insbesondere beim Arbeitsablauf von Entwurfsprozessen eingesetzt werden. Dabei verwendet Cicero ein restriktives Argumentationsmodell, das einerseits strukturierte Diskussionen von schwierigen Prozessen fördert und andererseits den Entscheidungsfindungsprozess unterstützt. Im Zentrum der Arbeit steht die Evaluation von Cicero, wobei im vorhergehenden theoretischen Teil die Hintergründe und Funktionsweisen vorgestellt werden und im nachfolgenden praktischen Teil die Anwendung anhand einer Fallstudie evaluiert wird. Die Studie wurde im Rahmen der Übungsveranstaltung zu Grundlagen der Datenbanken der Universität Koblenz im Wintersemester 2008/2009 durchgeführt , und die Studenten hatten die Aufgabe, einen Entwurfsprozess mit Hilfe von Cicero zu diskutieren. Über die erhobenen Daten der Fallstudie wird ein Akzeptanztest durchgeführt. Hierbei wird überprüft, ob die Benutzer Cicero positiv annehmen und die Methodik richtig anwenden. Denn aufgrund des vorgegebenen Argumentationsmodells müssen die Benutzer ihr Kommunikationsverhalten ändern und ihren herkömmlichen Diskussionsstil der Anwendung anpassen. Ziel der Evaluation ist es, kritische Erfolgsfaktoren im Umgang mit Cicero ausfindig zu machen. Anhand der identifizierten Schwachstellen werden abschließend gezielte Maßnahmen vorgeschlagen, die die Akzeptanz der Benutzer gegenüber Cicero erhöhen könnten.
Die vorliegende Arbeit hat gezeigt, dass es möglich ist an bestehenden Studien zum Thema Perceived External Reputation und der Teilnahme an der Implementierung von Dienstleitungsinnovationen anzuknüpfen. Es war sogar möglich die Abhängigkeiten der beiden Themen voneinander herauszustellen. Dies gelang unter zu Hilfenahme von weiteren Einflussfaktoren wie der erwarteten Ansehenssteigerung durch innovatives Verhalten und dem Stolz der Mitarbeiter mit dem eigenen Unternehmen in Verbindung gebracht zu werden.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
Diese Bachelor-Thesis beschäftigt sich mit der Entwicklung eines Programms, welches den Zahnarzt durch die AR bei seiner Behandlung am Patienten unterstützen soll. Um eine angemessene theoretische Grundlage zu schaffen, wird zunächst der aktuelle Stand der Technik erläutert, der für dieses Projekt relevant ist. Daraufhin werden mögliche zukünftige Technologien vorgestellt, welche die hypothetische Basis dieser Arbeit darstellen. In dem darauffolgenden Unterkapitel wird die Auswahl der Systeme erläutert, die für dieses Projekt verwendet wurden. Der Hauptteil beschäftigt sich zunächst mit dem Vorgehen in der Vorbereitungs- und Planungsphase, um daraufhin den Programmablauf der Applikation sukzessiv vorzustellen. Dabei wird auch auf die Probleme eingegangen, die während des Programmierens entstanden sind. In dem reflektierenden Auswertungsteil werden Verbesserungsvorschlägen und Zusatzfunktionen für das geschriebene Programm präsentiert.
Design und Implementierung einer Anwendung zum Visualisieren von Relationen zwischen Lernobjekten
(2007)
Diese Arbeit macht sich zur Aufgabe, das effiziente Navigieren in virtuellen Szenen näher zu betrachten, um bereits bestehende Navigationsmetaphern genauer zu erforschen und für unterschiedliche Einsatzgebiete anwendbar zu machen. Betrachtet werden Softwareprodukte für durchschnittliche Desktop-Benutzer, die mit Standard-Eingabegeräten arbeiten. Hierzu werden zunächst bestehende Navigationsmetaphern analysiert und Möglichkeiten der Benutzerperspektive sowie andere Hilfsmittel im Hinblick auf ihr aktuelles Anwendungsgebiet diskutiert. Anschließend wird ein theoretisches Testszenario erstellt, in dem alle analysierten Metaphern betrachtet und verglichen werden können. Ein Teil dieses Szenarios wird praktisch umgesetzt, in eine Testumgebung integriert und anhand von Benutzertests evaluiert. Zuletzt werden Möglichkeiten aufgezeigt, inwiefern die betrachteten Navigationsmetaphern in verschiedenen Einsatzgebieten sinnvoll und effizient anwendbar gemacht werden können.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.