004 Datenverarbeitung; Informatik
Refine
Year of publication
- 2014 (70) (remove)
Document Type
- Bachelor Thesis (42)
- Master's Thesis (14)
- Doctoral Thesis (7)
- Part of Periodical (4)
- Diploma Thesis (2)
- Report (1)
Keywords
- OpenGL (3)
- Android (2)
- Graphik (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- 3D-Visualisierung (1)
- Anforderungskatalog (1)
- Annotation (1)
- App (1)
Institute
Through the increasing availability of access to the web, more and more interactions between people take place in online social networks, such as Twitter or Facebook, or sites where opinions can be exchanged. At the same time, knowledge is made openly available for many people, such as by the biggest collaborative encyclopedia Wikipedia and diverse information in Internet forums and on websites. These two kinds of networks - social networks and knowledge networks - are highly dynamic in the sense that the links that contain the important information about the relationships between people or the relations between knowledge items are frequently updated or changed. These changes follow particular structural patterns and characteristics that are far less random than expected.
The goal of this thesis is to predict three characteristic link patterns for the two network types of interest: the addition of new links, the removal of existing links and the presence of latent negative links. First, we show that the prediction of link removal is indeed a new and challenging problem. Even if the sociological literature suggests that reasons for the formation and resolution of ties are often complementary, we show that the two respective prediction problems are not. In particular, we show that the dynamics of new links and unlinks lead to the four link states of growth, decay, stability and instability. For knowledge networks we show that the prediction of link changes greatly benefits from the usage of temporal information; the timestamp of link creation and deletion events improves the prediction of future link changes. For that, we present and evaluate four temporal models that resemble different exploitation strategies. Focusing on directed social networks, we conceptualize and evaluate sociological constructs that explain the formation and dissolution of relationships between users. Measures based on information about past relationships are extremely valuable for predicting the dissolution of social ties. Hence, consistent for knowledge networks and social networks, temporal information in a network greatly improves the prediction quality. Turning again to social networks, we show that negative relationship information such as distrust or enmity can be predicted from positive known relationships in the network. This is particularly interesting in networks where users cannot label their relationships to other users as negative. For this scenario we show how latent negative relationships can be predicted.
The aim of this paper is to identify and understand the risks and issues companies are experiencing from the business use of social media and to develop a framework for describing and categorising those social media risks. The goal is to contribute to the evolving theorisation of social media risk and to provide a foundation for the further development of social media risk management strategies and processes. The study findings identify thirty risk types organised into five categories (technical, human, content, compliance and reputational). A risk-chain is used to illustrate the complex interrelated, multi-stakeholder nature of these risks and directions for future work are identified.
In the recent years, Software Engineering research has shown the rise of interest in the empirical studies. Such studies are often based on empirical evidence derived from corpora - collections of software artifacts. While there are established forms of carrying out empirical research (experiments, case studies, surveys, etc.), the common task of preparing the underlying collection of software artifacts is typically addressed in ad hoc manner.
In this thesis, by means of a literature survey we show how frequently software engineering research employs software corpora and using a developed classification scheme we discuss their characteristics. Addressing the lack of methodology, we suggest a method of corpus (re-)engineering and apply it to an existing collection of Java projects.
We report two extensive empirical studies, where we perform a broad and diverse range of analyses on the language for privacy preferences (P3P) and on object-oriented application programming interfaces (APIs). In both cases, we are driven by the data at hand, by the corpus itself, discovering the actual usage of the languages.
3D-models are getting more important in many areas such as multimedia applications, robotics or film industries. Of particular interest is the creation of 3D-models from a series of monocular images. This is because the cameras that are required for this purpose are becoming cheaper, smaller and more sophisticated at the same time. Increasingly often, suitable cameras are already integrated in devices like smartphones, tablet PCs or cars for example. Hence, there is a great potential for applications of this reconstruction technique.
This thesis is based on the use of a series of images that were taken with arncalibrated camera. The first step is to extract point correspondences from this image series making use of the well-known SURF- and A-KAZE-features. Starting from the point correspondences, it is possible to reconstruct a 3D-Modell with different algorithms that consists of a point cloud and camera poses. To reduce errors in the 3D-model, this thesis especially focuses on explaining the bundle adjustment algorithm, which is being used for a non-linear error minimization of a cost function.
The thesis also introduces the application for the 3D-reconstruction and the visualization of the results, that was developed in the course of this thesis.
The implemented system is evaluated based on statistics and the newly aquiredrnknowledge is presented. The thesis concludes with a summary of its results, and a number of ideas for potential future applications and developments.
This thesis presents a prototypical application for speech therapy as a therapeutical tool, simulating the articulation of German phonemes and the swallowing reflex. A special attention is given to a three-dimensional visualization of anatomical models of the pharyngolaryngeal region, which can be used in an interactive way. For examining the benefits of such an application in relation to conventional therapy mediums, the thesis considers iteratively the requirements of speech therapists.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
New techniques concerning the automatic identification of objects (Auto-ID) show unique potential for being used in the economy. This paper focuses on the technology of Radio Frequency Identification (RFID) and examines its uses and potentials regarding selected economic sectors. In the course of this paper, RFID will be directly compared to the bar code, the currently most prevalent system for object identification in the economy. To this end, the different basic modes of operation of both technologies will be introduced, and differences between their technical realizations will be brought to light. Moreover, this paper distinguishes and evaluates both technologies with regards to their potential use in three different branches of industry. Their differentiation provides the basis for determining and evaluating the RFID technology- probability of replacing the bar code in the consumer goods sector, the logistic sector, and the pharmaceutic sector.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
The subject of this Bachelor Thesis is the research of decision-making in consideration of personal characteristics. One part of this thesis should analyze the uncertainty and the risk of decision-making and explain which differences a decision-maker is faced with. The other part should compare different groups of people and point out that these groups are faced with different problems in their decision making process. The differences in these groups are based on demographical and personal characteristics, such as the type of profession or the level of knowledge. The conclusion of this paper is to assign different types of heuristics, logics, theories and other decision-supporting tools to the different groups of people.
The goal of this work is evaluation and optimization of several eye-tracking algorithms for estimation of relevant features regarding accuracy. The extracted features are pupil- and glintcenters. The algorithms are applicable to off the shelf cameras. A synthetic model of the eye was modified and utilized. The model was used to supply ground truth for the evaluation of the methods.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Wireless sensor networks (WSN) are computer networks consisting of sensor nodes.In position-based protocols nodes broadcast messages containing their position information periodically. These messages are called beacons. The use of beacons however has downsides, which led to the emerging of beaconless algorithms. Despite their importance in the research area of computer networks and to the best of our knowledge, beaconless algorithms have not been systematically surveyed.
The aim of this work is a comprehensive, systematic review of beaconless algorithms since the turn of the millennium. Relevant articles are categorized based on their similarities and their differences are compared. Thus, this work serves as a reference to the current state of research of beaconless algorithms and as a basis for finding research gaps.
In the last few years, information technology experienced a great increase. People and Enterprises are able to exchange information through the development of the Web 2.0 to the Social Web. Social Networks like Facebook or Xing, blogs from known and unknown people or the many discussion forums are common platforms where people have the opportunity to share and exchange information. Enterprises and people have to accept this fact and development. The reputation is also influenced by the overabundance of information. The result of this development is the digital reputation, which extend the entire reputation. Everyone who is looking for an order or a job can assume that his orrnher name will be "googled", whether he or she is a part of an internet branch or not. Every information is available through search engines. Just a quick look at the Facebook or Xing profile is needed to get a brief impression of someone. The communications expert Klaus Eck said that someone who takes the internet seriously will get a benefit for the development of his digital reputation. This research work will show you through a self made questionnaire what is seen as positive and negative influences on the reputation in Social Networks and how the digital reputation impacts the entire reputation.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
Diese Arbeit versucht zu klären, ob der richtige Zeitpunkt für eine innovative Veränderung eines Geschäftsmodells ermittelt werden kann. Wenn ja, gilt es herauszufinden, wann dieser Zeitpunkt eintritt.
In einer kurzen Einführung sind die Problemstellung und die Ziele dieses Themas zusammengefasst und die Vorgehensweise der Literaturrecherche, sowie deren Bearbeitung beschrieben.
Es folgen die drei Hauptkapitel, welche inhaltlich aufeinander aufbauen. In dem Kapitel zwei sind Geschäftsmodelle thematisiert. Hier sind zunächst aus verschiedenen Quellen Definitionen des Begriffs "Business Model" herausgearbeitet, damit ein allgemeines Verständnis der Bedeutung eines Geschäftsmodells gewährleistet ist. Diese Definitionen sind durch das von Chesbrough und Rosenbloom (2002) praktische Beispiel der Nutzung eines Geschäftsmodells des Unternehmens Xerox Corporation gestützt. Im nächsten Schritt gilt es Typen von Business Models zu identifizieren. Als Quelle dient hierfür Weill et al (2005).
Der letzte Abschnitt von Kapitel zwei beschäftigt sich mit den sechs Dimensionen eines Geschäftsmodells nach Bieger und Reinhold (2011). Diese sechs Dimensionen spielen zum Ende dieser Arbeit eine Rolle als Kriterien für die Analyse heutiger Literatur zum Timing von Geschäftsmodellen.
Kapitel drei ist gleichzeitig Teil zwei der drei Hauptkapitel. Hier liegt der Fokus auf Innovationen. Der Begriff Innovation ist zunächst definiert und seine Wichtigkeit dargestellt, bevor verschiedene Arten von Innovationen beschrieben werden. Die einzelnen Innovationsarten leiten sich aus den Differenzierungskriterien nach Vahs und Brem (2013) ab. Um auch an dieser Stelle die Realität aus Unternehmenssicht näherzubringen, sind Fragestellungen aufgeführt, welche ein Geschäftsführer sich stellen sollte, wenn er sein Geschäftsmodell verändern möchte oder muss. Literaturgrundlage dieser Fragestellungen ist ein Artikel von Zott und Amit aus dem Jahr 2010.
Nach der umfassenden Klärung des Begriffs Innovation und kurzer Hilfestellung für Geschäftsführer folgt eine Beschreibung zweier Methoden, um Geschäftsmodelle innovativ zu verändern. Die erste Methode ist die Nutzung des St. Galler Business Model Navigators nach Gassmann, Frankenberger und Csik (2013). Der St. Galler Business Model Navigator wurde an der Universität St. Gallen in der Schweiz von dem Institut für Technologiemanagement entwickelt.
Die zweite beschriebene Methode für Business Model Innovation ist das Business Model Canvas Tool nach Osterwalder und Pigneur (2010), welches auf die sogenannten "nine building blocks" aufbaut.
Das letzte Hauptkapitel dieser Arbeit bezieht sich auf dessen zentrale Fragestellung mit dem Stichwort Timing. Hier wird mit einem praktischen Beispiel von Timing von technologischen Innovationen begonnen, der IBM Mainframe Case, analysiert von Mahajan und Muller (1996). Danach folgt eine kurze Zusammenfassung des Standes in der heutigen Literatur zum Thema Timing. Im nächsten Schritt ist ein eigener Beitrag zum Thema "Business Model Innovation Timing" geschrieben, weswegen sich Literaturangaben in diesem Abschnitt auf dem Minimum halten.
Diese Bachelorarbeit schließt ab mit der eigenen Analyse von heutiger Literatur zum Timing von Geschäftsmodellen. Ergebnis dieser Analyse ist eine Tabelle mit einer 20 x 7 Matrix, wo der Inhalt zwanzig ausgewählter Quellen den sechs Dimensionen eines Geschäftsmodells aus Kapitel zwei, sowie dem Kriterium Timing zugeordnet ist. So entsteht ein Überblick darüber, über welche Kriterien in der Literatur mehr oder weniger geschrieben wurde. Diese Analyse und Zuordnung ist ausgewertet, indem die Quellen mit dem Kriterium Timing genauer betrachtet werden, um die zentrale Fragestellung dieser Arbeit zu beantworten zu versuchen.
Ein kurzes Fazit rundet die Bachelorarbeit ab.
Beim Bitcoin handelt es sich um eine dezentrale virtuelle Währung in einem Peer-to-Peer Netzwerk. Die digitalen Münzen wurden 2008 durch Satoshi Nakamoto erfunden und seit 2009 in Umlauf gebracht. Das angestrebte Ziel des Bitcoin sind Transaktionen zum Erwerb virtueller und realer Güter ohne das Einwirken von Finanzintermediären. Dadurch können Transaktionskosten minimiert werden. Das Vertrauen in solche dritte Parteien wird dabei durch ein mathematisches Konzept ersetzt und durch das Bitcoinnetzwerk und all seine Nutzer sichergestellt. Obwohl die digitalen Münzen eigentlich als Tauschmittel konzipiert wurden, ist der aktuelle Anwendungsbereich noch sehr gering. Die Kursentwicklung hingegen erfuhr seit Anfang 2013 mehrere Berg- und Talfahrten auf den Handelsplattformen für den Bitcoin. Während sich viele wissenschaftliche Arbeiten mit den technischen Aspekten im Bereich der Informatik befassen, klafft im ökonomischen Kontext noch eine große Lücke. Was macht ein Zahlungsmittel eigentlich aus und wie ist der Bitcoin im volkswirtschaftlichen Sinne einzuordnen? Mit diesen Fragestellungen wird sich in dieser Ausarbeitung auseinandergesetzt. Als Vergleichsgröße wurden dabei, auf Basis sorgfältig ausgewählter Literatur, die Aspekte realer Währungen nach ihren Funktionen, Eigenschaften und Formen untersucht. Anschließend wurden die technischen Grundlagen der virtuellen Währung dargelegt, um ebenfalls den Bitcoin darauf anzuwenden. Dabei hat sich gezeigt, dass die digitalen Münzen als virtuelle Währung, gegenüber realen Währungen, noch deutliche Defizite aufweisen. Eine besonders gravierende Schwachstelle stellt dabei die hohe Volatilität des Kurses dar. Sie sorgt dafür, dass der Bitcoin mit einer solchen Instabilität nicht die Wertaufbewahrungsfunktion gewährleisten kann. Da dies ein ausschlaggebendes Kriterium zur Erfüllung der Geldfunktionen darstellt, kann der Bitcoin ebenfalls nicht die Rolle als Zahlungsmittel erfüllen, wie es bei den realen Währungen der Fall ist.
In der Literatur sind Projekte als geeignetes Mittel zur Implementierung von Strategien im Unternehmen anerkannt. Ähnlich wie bei einem Projekt handelt es sich bei der Implementierung von Strategien um zeitlich befristete Aufgaben, die in der Regel eine hohe Komplexität und Neuartigkeit aufweisen. Aufgrund dessen werden heutzutage strategische Vorhaben in Form von Projekten umgesetzt. Somit haben Projekte eine hohe Bedeutung für die strategische Entwicklung von Unternehmen. Um diese strategische Entwicklung sichern zu können, muss ein permanentes Lenkungssystem für strategische Projekte im Unternehmen implementiert werden " das Projektportfoliomanagement. Aufgrund der Komplexität und Neuartigkeit strategischer Projekte ist das Projektportfoliomanagement ein hoch komplexes Lenkungssystem mit vielen Subprozessen, die mit hohen Kosten und Zeitaufwand verbunden sind. Diese Masterarbeit beschäftigt sich mit der Optimierung des Projektportfoliomanagements anhand der Lean-Philosophie. Letztere ist eine Sammlung von Prinzipien und Methoden, die für die Verschlankung der Produktion in der Automobilindustrie entwickelt wurde. Der Einsatz der Lean-Prinzipien brachte eine derartige Steigerung der Effizienz und Effektivität bei der Automobilherstellung, dass diese Prinzipien auch in anderen Branchen und Funktionsbereichen eigesetzt werden. Nun soll das Potential der Lean-Philosophie für die Optimierung des Projektportfoliomanagements untersucht werden.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
This thesis imparts a general view of the mechanics and implementation of latest voxelization strategies using the GPU. In addition to established voxelization procedures using the rasterization pipeline, new possibilities arising from GPGPU programming are examined. On the basis of the programming language C++ and the graphics library OpenGL the implementation of several methods is explained. The methods are compared in terms of performance and quality of the resulting voxelization and are evaluated critically with regards to possible use cases. Furthermore, two exemplary applications are detailed that use a voxelized scene in such a way that the augmentation of established techniques of real time graphics are facilitated. To this end, the concepts and the implementations of Transmittance Shadow Mapping and of Reflective Shadow Mapping utilizing a voxel based ambient occlusion effect is explained. Finally, the prolonging relevance of voxelization is put into prospect, by addressing latest research and further enhancements and applications of the presented methods.
The present thesis covers the implementation and optimization of global illumination in three-dimensional scenes. Global illumination does not only consider direct illumination dependent on one or more light sources, but also indirect illumination which is emitted by surrounding objects in the scene. The thesis focuses on the implementation of a global illumination method and its improvement using OpenGL 4.4. This is done by a voxelization of the scene. By traversing the resulting voxel structure, additional information is taken from the scene, which contributes to a plausible global illumination.
Simulation of fractures
(2014)
Real-time computing often avoids the simulation of fractures due to its complexity. The field of engineering science provides methods to create these simulations to improve games and other applications. Steadily rising computer capacities allow suitable simulations on a real-time basis and make this aspect increasingly interesting. The topic and aim of this research is to simulate fractures of stiff bodies. The primary objective is the physical plausibility and performance of the application. This thesis analyses the potential of computer science to realize the simulation of fractures.
Three existing as well as one self-created were implemented and analysed. The works "Real time simulation of deformation and Fracture of stiff material" from Müller et al., "real time simulation of Brittle Fracture using Modal analysis" from Glondu et al. and "Fast and Controllable simulation of the Shattering of Brittle Objects" from Smith et al. form the basis of this thesis. The introduced methods use different computation of forces and fractures. The developed procedure uses the idea of generating secondary breaks. The approaches were implemented based on the Bullet physics-engine. The results of the work show that physically based breaks are realizable on a real-time basis.
The analysis of the physical methods demonstrates that their performance mainly depends on the constitution of the used objects. This thesis shows that the further investigation of this topic can discover new possibilities. The improvement of the realism in virtual worlds can be achieved by executing physically plausible methods.
Diese Arbeit beschreibt den Entwurf und die Umsetzung einer prototypischen Android-Applikation zum Dokumentieren von Reiserouten. Nach einer kurzen Einführung in die grundlegenden Aspekte des Reisens, der notwendigen Hilfsmittel sowie das Betriebssystem Android wird das Konzept und die Anforderungen an die Anwendung vorgestellt. Anschließend werden die Realisierung der Implementierung erläutert und die Ergebnisse der Evaluation offengelegt.