Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (190) (entfernen)
Schlagworte
- Augmented Reality (3)
- Computersimulation (3)
- Datenschutz (3)
- Internet of Things (3)
- virtual reality (3)
- Beschaffung (2)
- E-Partizipation (2)
- E-participation (2)
- Simulation (2)
- Sport (2)
Institut
- Institut für Computervisualistik (46)
- Fachbereich 4 (34)
- Institut für Management (33)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institute for Web Science and Technologies (19)
- Institut für Informatik (14)
- Institut für Softwaretechnik (6)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Fachbereich 6 (1)
The status of Business Process Management (BPM) recommender systems is not quite clear as research states. The use of recommenders familiarized itself with the world during the rise of technological evolution in the past decade.Ever since then, several BPM recommender systems came about. However, not a lot of research is conducted in this field. It is not well known to what broad are the technologies used and how are they used. Moreover, this master’s thesis aims at surveying the BPM recommender systems existing. Building on this, the recommendations come in different shapes. They can be positionbased where an element is to be placed at an element’s front, back or to autocomplete a missing link. On the other hand, Recommendations can be textual, to fill the labels of the elements. Furthermore, the literature review for BPM recommender systems took place under the guides of a literature review framework. The framework suggests 5stages of consecutive stages for this sake. The first stage is defining a scope for the research. Secondly, conceptualizing the topic by choosing key terms for literature research. After that in the third stage, comes the research stage.As for the fourth stage, it suggests choosing analysis features over which the literature is to be synthesized and compared. Finally, it recommends defining the research agenda to describe the reason for the literature review. By invoking the mentioned methodology, this master’s thesis surveyed 18 BPM recommender systems. It was found as a result of the survey that there
are not many different technologies for implementing the recommenders. It was also found that the majority of the recommenders suggest nodes that are yet to come in the model, which is called forward recommending. Also, one of the results of the survey indicated the scarce use of textual recommendations to BPM labels. Finally, 18 recommenders are considered less than excepted for a developing field therefore as a result, the survey found a shortage in the number of BPM recommender systems. The results indicate several shortages in several aspects in the field of BPM recommender systems. On this basis, this master’s thesis recommends the future work on it the results.
As a result of the technical progress, processes have to be adjusted. On the one hand, the digital transformation is absolutely necessary for every organization to operate efficient and sustainable, on the other hand whose accomplishment is a tremendous challenge. The huge amount of personal data, which accrue in this context, is an additional difficulty.
Against the background of the General Data Protection Regulation (GDPR), this thesis focuses on process management and ways of optimizing processes in a Human Resources Department. Beside the analysis of already existing structures and workflows, data management and especially the handling of personal data in an application process are examined. Both topics, the process management and the data protection are vitally important by itself, but it is necessary to implement the requirements of data protection within the appropriate position of a corresponding process. Relating to this, the thesis deals with the research question of what barriers may occur by a sustainable process integration and to which extend the GDPR prevent an unobstructed workflow within the Human Resources Department of the Handwerkskammer Koblenz. Additionally, answering the question of which subprocesses are convenient for a process automation is highly significant.
In scope of these questions Business Process Management is the solution. By means of the graphical representation standard, Business Process Model and Notation, a process model with the relevant activities, documents and responsibilities of the recruitment process is designed. Based on a target-actual comparison it becomes apparent, that standardized process steps with less exceptions and a large amount of information are basically convenient for automation respectively partial automation. After the different phases of the recruitment process are documented in detail, a Workflow-Management-System can ex-port the transformed models, so the involved employees just have to carry out a task list with assigned exercises. Against the background of the data protection regulations, access rights and maturities can be determined. Subsequently only authorized employees have admission to the personal data of applicants. Because of impending sanctions by violation against the GDPR, the implementation of the relevant legal foundations within the recruitment process is necessary and appropriate. Relating to the defined research questions, it appears that in principle not every activity is appropriate for a process automation. Especially unpredictable and on a wide range of factors depending subprocesses are unsuitable. Additionally, media discontinuities and redundant data input are obstacles to an enduring process integration. Nevertheless, a coherent consideration of the topics of business process management and the data protection regulations is required.
Im Rahmen dieser Masterarbeit wird das Prinzip des hybriden Ray Tracing, einer Kombination einer Rasterisierungs-Pipeline mit Ray Tracing-Verfahren für einzelne Effekte, vorgestellt und eine Anwendung implementiert, welche innerhalb einer hybriden Ray Tracing-Pipeline Schatten, Umgebungsverdeckung
und Reflexionen berechnet und diese Effekte mit der direkten Beleuchtung kombiniert.
Das hybride Ray Tracing basiert auf der Idee, die Performance und Flexibilität von Rasterisierungs-Pipelines mit Ray Tracing zu kombinieren, um die Limitation der Rasterisierung, nicht auf die gesamte Umgebungsgeometrie an jedem Punkt zugreifen zu können, aufzuheben.
Im Rahmen der Implementation wird in die verwendete RTX-API sowie die Grafikschnittstelle Vulkan eingeführt und diese anhand der Implementation erklärt. Auf Grundlage der Ergebnisse und der Erkenntnisse bei der Nutzung der API wird diese, ihre Einsatzzwecke und Ausgereiftheit belangend, eingeschätzt.
Ein Gonioreflektometer ist ein Gerät zum Vermessen der Reflexionseigenschaften von Materialien. Ein solche Apparatur wird in dieser Arbeit mit handelsüblichen Bauteilen gebaut. Dafür werden drei Schrittmotoren und 809 Leuchtdioden mit einem Arduino-Mikrocontroller gesteuert. Als Reflexionsdaten werden RGB-Bilder mit einer industriellen Kamera aufgenommen. Zusätzlich wird eine Steuersoftware für verschiedene Aufnahmeprogramme sowie ein Renderer zum Anzeigen der vermessenen Materialien implementiert. Somit können komplette bidirektionale Reflektanz-Verteilungsfunktionen (BRDFs) aufgenommen und gerendert werden, wodurch selbst komplizierte anisotrope Materialeigenschaften repräsentierbar sind. Die Qualität der Ergebnisse ist aufgrund von Schattierungen zwar Artefakt-behaftet, jedoch können diese Artefakte durch entsprechende Algorithmen wie Inpainting weitestgehend behoben werden. Außerdem wurde das Gonioreflektometer auf andere Anwendungen übertragen. So sind ohne Veränderungen am Gerät auch 3D-Scans, Lichtfeldaufnahmen und Light-Staging möglich. Auch die Qualität der Ergebnisse dieser Aufnahmeverfahren entspricht den Erwartungen im positiven Sinne. Somit ist das in dieser Arbeit gebaute Gonioreflektometer im Vergleich zu anderen Publikationen eine breit anwendbare und kostengünstige Alternative.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
Unterschiedliche Quellen (Print-Medien, Fernsehberichte u. Ä.) berichten immer wieder davon, dass es mit der Datenschutzkompetenz bei Kindern und Jugendlichen schlecht bestellt ist. Daher ist dem Thema Datenschutz im Informatikunterricht eine besondere Bedeutung zuzuschreiben.
Im Rahmen der Dissertation von Herrn Hug wird ein Datenschutzkompetenzmodell [Quelle INFOS17] entwickelt, anhand dessen die Datenschutzkompetenz von Schülerinnen und Schülern im Altern von 10 bis 13 Jahren gemessen werden kann.
Im Rahmen dieser Masterarbeit werden existierende Unterrichtsmaterialien zum Thema Datenschutz gesammelt und dazu eine Unterrichtsreihe entwickelt. Hierbei werden auch eigene Zugänge aufzeigt, um ein kohärentes und abgeschlossenes Projekt zu entwerfen, bei dem aktuelle Gefahren für Schülerinnen und Schüler aufgezeigt werden. Ziel ist es, dass die Schülerinnen und Schüler dazu befähigt werden, ihr Verhalten bezüglich Datenschutz besser einzuschätzen und verantwortungsvoller mit ihren persönlichen Daten umzugehen. Im Rahmen eines Feldversuches in einer 6. Klasse eines Gymnasiums wurde die Unterrichtsreihe erprobt.
Die im Rahmen dieser Masterarbeit durchgeführte Analyse von Ernährungsumstellungen auf die vegane Ernährung in Form von vier Portraits lotet mit ihrer interdisziplinären Perspektive aus Gastrosophie, Ethnologie und Leibphilosophie die soziokulturellen Aspekte dieser Transmissionsprozesse aus. Dazu gehören der zivilisatorisch erlernte Umgang mit Nahrung, das Umsetzen und Reflektieren sinnlicher Wahrnehmungen im Ernährungsprozess und die Prägung von Relationen zwischen Essendem und Zu-Essendem. Geleitet wird die Analyse dabei von der Forschungsfrage: „Welche leiblich sinnlichen Wahrnehmungen geben den Anstoß zu einer Ernährungsumstellung und wie begleiten diese den Prozess der Umstellung?“. Damit gibt die Frage den Fokus auf das (leibliche) Wahrnehmungsvermögen des Menschen vor und begrenzt Ernährung bewusst nicht auf ihre physiologische Funktion der Energiegewinnung. Dadurch flicht sie sich in den Diskurs um den cultural turn in der Ernährungswissenschaft ein und zielt weg von der metabolischen Durchmessung des Essens, hin auf das Verständnis von Ernährung als Praxis des Sich-Einverleibens-von-Anderem – Essen als Vollzug von Beziehungen. Das Sich-Ernähren wird damit als sozial geprägter und leiblich vermittelter Erfahrungsvorgang sichtbar, der über das Geschmackserlebnis hinaus durch Betroffenheitserfahrung konstituiert wird. Durch das Zusammenbringen philosophischer Perspektiven, wie die der Gastrosophie Harald Lemkes, die Essen u. a. auch als Selbstbestimmung denkt, und soziologischen Theorien, wie die des Habitus-Konzepts nach Pierre Bourdieu, wird deutlich, wie die Wahrnehmungspraxis und -fähigkeit des Menschen, in ihrem leiblichsinnlichen Aspekt, die Verhaltensbestimmung im Umgang mit Nahrung und deren Quellen beeinflusst. Die vier Portraits entstanden während einer sechsmonatigen ethnographischen Feldforschung und stellen anonymisiert die Motivation, den Verlauf und das Konfliktthema der jeweiligen Ernährungsumstellung dar. Die Portraits sind sehr individuell und zeigen auf, wie und warum beispielsweise die gesundheitliche Selbstsorge oder das empathische Mitleiden mit Nutztieren Veränderungen oder Tabuisierungen im Ernährungshandeln anstoßen.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.
Our work finds the fine grained edits in context of neighbouring tokens in Wikipedia articles. We cluster those edits according to similar neighbouring context. We encode neighbouring context into vector space using word vectors. We evaluate clusters returned by our algorithm on extrinsic and intrinsic metric and compare it with previous work. We analyse the relation between extrinsic and intrinsic measurements of fine grained edit tokens.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Innovationen prägen die Gesellschaft. Daher ist das Innovationsmanagement eine zentrale Aufgabe in Unternehmen. Erfolgreiche Innovationen können die Effizienz und Effektivität eines Unternehmens steigern, folglich ist das Ziel eines Innovationsmanagements, erfolgreiche Innovationen hervorzubringen. Innerhalb des Managements von Innovationen entstehen Herausforderungen, die auf Innovationsbarrieren zurückzuführen sind. Diese können zum Scheitern von Innovation führen. Um diese Art von Misserfolg zu vermeiden, kann ein Vorgehensmodell zur Identifizierung und zum Umgang mit Innovationsbarrieren einen erfolgsorientierten Innovationsprozess begünstigen.
Die Eisenbahnindustrie ist durch ihre Infrastruktur, ihre politische Abhängigkeit und Sicherheitsanforderungen gekennzeichnet. Sicherheit, als eines der Hauptthemen der Branche ist einerseits durch das Schutz- und Kontrollsystem der Politik geprägt und andererseits gestaltet und beeinflusst durch Forschung und Entwicklung von Unternehmen, Universitäten oder externen Entwicklern. Die Unfallvermeidung ist ein bedeutendes Thema in der Literatur zur Eisenbahnsicherheit, hierbei ist die Instandhaltung eines der Instrumente, die der Vorbeugung dienen. Die Prävention von Unfällen treibt den Bedarf von Innovatio-nen für die Eisenbahnsicherheit an. Dementsprechend ist die Thematik der Innovationsbarrieren auch für die Bahnindustrie von Bedeutung. Der Umgang mit diesen in dem konkreten Zusammenhang der Eisenbahnsicherheit soll anhand eines Vorgehensmodells systematisiert werden. Um das Modell insbesondere auf die Branche und den Schwerpunkt der Sicherheit abzustimmen, wird das Grundgerüst des Modells aus der Literatur erarbeitet und mit den recherchierten Kenntnissen der Branche erweitert. Basierend auf den Kenntnissen über Innovationsbarrieren im Schienenverkehr werden Schnittstellenprobleme als Ursache von den spezifischen Barrieren identifiziert. Dazu gehören beispielsweise die Interoperabilität und technische Harmonisierung zwischen Ländern wie der EU sowie die Zusammenarbeit zwischen Industrie und Wissenschaft oder externen Entwicklern. In dem Bezug zu der Branche konnte für das Modell eine Erweiterung erarbeitet werden. Es wurde herausgearbeitet, dass die Eisenbahnbranche weniger innovationsaktiv ist, als z. B. die Technologiebranche. Dies ist auf einen Mangel an Motivation zur Innovation zurückzuführen, der in der Branchenkultur aufgrund von der vergangenen Monopolstellung und dem hohen Sicherheitsanspruch zu einer risikoaversen Haltung führt. Daher muss die fortschreitende Liberalisierung des Eisenbahnmarktes abgeschlossen und die Sicherheitskonzepte neu strukturiert werden, um ein innovationsfreundliches Umfeld zu schaffen.
Letztendlich sollte das Vorgehensmodell in einer realen Umgebung getestet werden. Es wäre interessant zu erfahren, ob das entwickelte Modell zu den in dieser Arbeit entwickelten Ergebnissen hinsichtlich der mangelnden Motivation für Innovationen passt. Darüber hinaus scheint eine Validierung von Experten angebracht zu sein, da die Entwicklung des Modells von der Literaturrecherche abhängt
We examine the systematic underrecognition of female scientists (Matilda effect) by exploring the citation network of papers published in the American Physical Society (APS) journals. Our analysis shows that articles written by men (first author, last author and dominant gender of authors) receive more citations than similar articles written by women (first author, last author and dominant gender of authors) after controlling for the journal of publication, year of publication and content of the publication. Statistical significance of the overlap between the lists of references was considered as the measure of similarity between articles in our analysis. In addition, we found that men are less likely to cite articles written by women and women are less likely to cite articles written by men. This pattern leads to receiving more citations by articles written by men than similar articles written by women because the majority of authors who published in APS journals are male (85%). We also observed Matilda effect reduces when articles are published in journals with the highest impact factors. In other words, people’s evaluation of articles published in these journals is not affected by the gender of authors significantly. Finally, we suggested a method that can be applied by editors in academic journals to reduce the evaluation bias to some extent. Editors can identify missing citations using our proposed method to complete bibliographies. This policy can reduce the evaluation bias because we observed papers written by female scholars (first author, last author, the dominant gender of authors) miss more citations than articles written by male scholars (first author, last author, the dominant gender of authors).
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
Knowledge-based authentication methods are vulnerable to Shoulder surfing phenomenon.
The widespread usage of these methods and not addressing the limitations it has could result in the user’s information to be compromised. User authentication method ought to be effortless to use and efficient, nevertheless secure.
The problem that we face concerning the security of PIN (Personal Identification Number) or password entry is shoulder surfing, in which a direct or indirect malicious observer could identify the user sensitive information. To tackle this issue we present TouchGaze which combines gaze signals and touch capabilities, as an input method for entering user’s credentials. Gaze signals will be primarily used to enhance targeting and touch for selecting. In this work, we have designed three different PIN entry method which they all have similar interfaces. For the evaluation, these methods were compared based on efficiency, accuracy, and usability. The results uncovered that despite the fact that gaze-based methods require extra time for the user to get familiar with yet it is considered more secure. In regards to efficiency, it has the similar error margin to the traditional PIN entry methods.
Die Zielsetzung der vorliegenden Masterarbeit lag darin, die instrumentelle Gewäs-seranalytik im Freiland für Schüler*innen erschließbar zu machen.
Als Maßnahme der Master-Thesis wurde eine arbeitsteilige Lerneinheit rund um das Thema Gewässeranalytik für den außerschulischen Chemieunterricht der Sekun-darstufe II konzipiert und evaluiert. Die Konzeption erfolgte in Anlehnung an die Lehrpläne der Fächer Biologie, Geografie, Physik und Chemie des Landes Rhein-land-Pfalz. Zur Bewertung der Gewässergüte kam das digitale Messsystem Einstein Labmate für zahlreiche physikalisch-chemische Parameter zur Verwendung. Zu-sätzlich wurde das Online-Portal FLUVIDAT Saar zur rudimentären Bestimmung von Indikatororganismen sowie für eine Einordnung der Gewässerstruktur genutzt.
Im Rahmen der begleitenden Evaluation wird der Forschungsfrage nachgegangen, in wie weit die konzipierte Einheit praxistauglich und adressatengerecht für den Chemieunterricht der Oberstufe ist. Dies wird anhand der Konstrukte „Aktuelles Inte-resse“ und „Cognitive Load“ mit einem Fragebogen, einer Videoanalyse mit litera-turbasiertem Codierleitfaden sowie einem Lesbarkeitsindex der zugrundeliegenden Experimentieranleitungen überprüft.
Die Ergebnisse der Datenauswertung zeigten ein hohes aktuelles Interesse der Schüler*innen sowie eine angemessene kognitive Belastung. Durch die Erhebung der lernbezogenen kognitiven Belastung zeigte sich, dass die im unteren Bereich liegende Schwierigkeit der Materialien kognitive Kapazitäten zur Schemabildung frei gab.
Im Rahmen der Masterarbeit wird die kompetenzgestützte Weiterbildungssuche analysiert und am Beispiel des Weiterbildungsvergleichsportales EDUfittery dargestellt.
Die Umsetzung und Integration eines Kompetenzmessverfahrens in ein Vergleichsportal für Weiterbildungen war das Ziel dieser Arbeit. Des Weiteren sollte anhand des Kompetenzmessverfahrens ein sogenanntes „Matching“ zwischen Kompetenz und Weiterbildung erarbeitet werden. Beim „Matching“ werden dementsprechend die vom Kunden eingegebenen Kompetenzen mit passenden Weiterbildungsvorschlägen verbunden. Somit wird ein individuelles Kundenerlebnis in der Weiterbildungssuche erreicht. Um dies zu ermöglichen, wird zu Beginn der Arbeit ein theoretisches Kompetenzschema analysiert, sodass Aussagen über Erhebungsverfahren und Auswertungsstrategien getroffen werden können, um diese, besonders in Bezug auf ein web-gestütztes Messinstrument, kritisch zu hinterfragen. Aufbauend auf der Analyse verschiedener Kompetenzmessverfahren im Online-Segment, kann gezeigt werden, dass die Kompetenzdiagnostik zwar einige Verfahren zur Verfügung stellt, doch nur wenige sind praktikabel und in der Lage tätigkeitsbezogene Handlungskompetenzen zu bewerten. Folglich wurde das Instrument der Selbsteinschätzung von Kompetenzen als am besten zutreffendes Verfahren für EDUfittery gewählt.
Im Zuge der Arbeit wurden zwei Online-Umfragen und ein Experteninterview durchgeführt. Dabei wurden zum einen Mitarbeiter, als auch Personaler in Bezug auf Weiterbildungen befragt. Als Experte konnte Herr Korn, von der IHK Akademie Koblenz gewonnen werden. Anhand der Umfrageergebnisse und weiterer Recherchen konnte ein umfangreicher Business Case für EDUfittery angefertigt und mit Prozessdiagrammen veranschaulicht werden. Es wird ersichtlich, dass das Thema Kompetenzanalysen in Unternehmen bisher kaum Anwendung findet. Bei genauerer Betrachtung der aktuellen Marktsituation wird zusätzlich klar, dass es derzeitig noch keine Plattform gibt, die Kompetenzen mit Weiterbildungen erfolgreich in Zusammenhang bringt, um dem Kunden individuelle Weiterbildungslösungen anbieten zu können. Als Ergebnis der Arbeit kann demnach festgehalten werden, dass eine Integration von Kompetenzanalysen im Bereich Weiterbildungssuche durchaus sinnvoll ist. EDUfittery könnte sich bei erfolgreicher Umsetzung als hilfreiches Tool im Bereich Weiterbildung und Kompetenz etablieren und somit Unternehmen grundlegend bei der Abbildung, Analyse und Weiterentwicklung von Kompetenzen unterstützen.
This Master Thesis is an exploratory research to determine whether it is feasible to construct a subjectivity lexicon using Wikipedia. The key hypothesis is that that all quotes in Wikipedia are subjective and all regular text are objective. The degree of subjectivity of a word, also known as ''Quote Score'' is determined based on the ratio of word frequency in quotations to its frequency outside quotations. The proportion of words in the English Wikipedia which are within quotations is found to be much smaller as compared to those which are not in quotes, resulting in a right-skewed distribution and low mean value of Quote Scores.
The methodology used to generate the subjectivity lexicon from text corpus in English Wikipedia is designed in such a way that it can be scaled and reused to produce similar subjectivity lexica of other languages. This is achieved by abstaining from domain and language-specific methods, apart from using only readily-available English dictionary packages to detect and exclude stopwords and non-English words in the Wikipedia text corpus.
The subjectivity lexicon generated from English Wikipedia is compared against other lexica; namely MPQA and SentiWordNet. It is found that words which are strongly subjective tend to have high Quote Scores in the subjectivity lexicon generated from English Wikipedia. There is a large observable difference between distribution of Quote Scores for words classified as strongly subjective versus distribution of Quote Scores for words classified as weakly subjective and objective. However, weakly subjective and objective words cannot be differentiated clearly based on Quote Score. In addition to that, a questionnaire is commissioned as an exploratory approach to investigate whether subjectivity lexicon generated from Wikipedia could be used to extend the coverage of words of existing lexica.
Es wird ein Augmented-Reality Ansatz zur Erforschung modularer OSGi-Softwaresysteme präsentiert. Der Prototyp wird unter der Verwendung der Microsoft HoloLens implementiert. Module, wie Komponenten und Packages, werden in einer virtuellen Stadt dargestellt. Dieser Ansatz ermöglicht es dem Anwender, die Software-Architektur mittels intuitiver Navigation zu erkunden: Spracheingabe, Blickpunkt- und Gestenkontrolle. Eine multifunktionale Benutzeroberfläche wird vorgestellt, die für verschiedene Zielgruppen adaptiert werden kann. Viele veröffentlichte Visualisierungen weisen keine klare Zielgruppendefinition auf. Das Konzept kann leicht auf andere Darstellungsformen, wie beispielsweise der Inselmetapher übertragen werden. Erste Ergebnisse einer Evaluierung, die mittels kleiner strukturierter Interviews gewonnen werden konnten, werden präsentiert. Die Probanden mussten vier Programm-verständnis Aufgaben lösen und ihren Aufwand, sowie ihre Arbeitsbelastung einschätzen. Die Ergebnisse bilden eine gute Grundlage für weitere Forschung im Bereich der Software- Visualisierung in Augmented Reality.
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.
Eine Service Excellence Kultur wird von einer Vielzahl an Faktoren beeinflusst. Es existieren sowohl Faktoren, die das Zustandekommen einer Service Excellence Kultur fördern, als auch Faktoren, die hemmend wirken. Basiseigenschaften einer Service Excellence Kultur resultieren aus den internen Umstände einer Organisation. Die Mitarbeiter einer Organisation gelten als Schlüssel-Akteure bezüglich exzellentem Service. Fördernde interne Umstände entstehen aus dem Verhalten des Managements gegenüber den Angestellten. Dies kann sich in Form von Empowerment und Encouragement, also der Ermächtigung und der Ermutigung ausdrücken. Die interne Exzellenz ist der optimale interne Organisationszustand, um eine Service Excellence Kultur zu erzeugen. Aus einer internen Exzellenz heraus agieren die Front-Line-Employees mittels standardisierter sowie innovativer Prozesse mit den Kunden, und streben an, diese zufrieden zu stellen und Begeisterung zu erzeugen. Ein hemmender Faktor ist die Komplexität der Kundenprobleme, da dadurch die Erreichung von Kundenzufriedenheit und Begeisterung erschwert wird. In der IT-Dienstleistungsbranche spielt die Komplexität eine besondere Rolle. Durch die häufig individuellen und technischen Probleme entsteht eine erhöhte Komplexität, die eine Herausforderung für die Service-Mitarbeiter zur Folge hat. Damit dennoch Kundenzufriedenheit mit exzellentem Service erzeugt werden kann, gilt es, den Mitarbeiter mit einem detaillierten Handlungsleitfaden durch den Service-Prozess zu leiten. Zudem ist eine Wissensdatenbank von Nutzen, da jeder Service-Fall zum Wissensaufbau genutzt werden kann. Ein weiteres förderndes Element in einer Service Excellence Kultur ist die technische Unterstützung des Front-Line-Employees durch geeignete Software, die ihm grundlegende Aufgaben abnimmt.
The content aggregator platform Reddit has established itself as one of the most popular websites in the world. However, scientific research on Reddit is hindered as Reddit allows (and even encourages) user anonymity, i.e., user profiles do not contain personal information such as the gender. Inferring the gender of users in large-scale could enable the analysis of gender-specific areas of interest, reactions to events, and behavioral patterns. In this direction, this thesis suggests a machine learning approach of estimating the gender of Reddit users. By exploiting specific conventions in parts of the website, we obtain a ground truth for more than 190 million comments of labeled users. This data is then used to train machine learning classifiers to use them to gain insights about the gender balance of particular subreddits and the platform in general. By comparing a variety of different approaches for classification algorithm, we find that character-level convolutional neural network achieves performance with an 82.3% F1 score on a task of predicting a gender of a user based on his/her comments. The score surpasses 85% mark for frequent users with more than 50 comments. Furthermore, we discover that female users are less active on Reddit platform, they write fewer comments and post in fewer subreddits on average, when compared to male users.
Das Ziel der vorliegenden Masterarbeit ist es, einen Einführungskurs in die Computervisualistik mit dem Schwerpunkt Computergrafik zu konzeptionieren und zu prototypisieren. Der Kurs sollte Grundlagen der Computergrafik vermitteln und dabei Bezüge zu anderen Veranstaltungen des Studiums herstellen, um Motivation und Verständnis für die komplexen Zusammenhänge der Studieninhalte in der Computervisualistik zu schaffen. Der aktuelle Studiengangplan weist hier bislang ein erkennbares Defizit auf. Für den Einführungskurs wurden prototypische Lerneinheiten auf Grundlage der didaktischen Methode der Moderation und unter Verwendung von Unity entwickelt. Konzept und Prototypen wurden an Probanden ohne informationstechnischen Hintergrund evaluiert. Die Ergebnisse zeigten, dass Unity eine geeignete Oberfläche für die Vermittlung der Informationen bietet. Diese stieß auf Akzeptanz und konnte leichte Zugänglichkeit bei den Probanden aufweisen, obwohl die Lerneinheiten selbst kleinere Schwächen aufwiesen. Im Anschluss an die erste Evaluationsphase wurde eine qualitative Umfrage mit Alumini der Computervisualistik durchgeführt. Die Ergebnisse bestätigten den Bedarf nach einer einführenden Veranstaltung zur Orientierung und zur Förderung von Motivation und Verständnis für die breiten Themengebiete der Computervisualistik.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Die vorliegende Arbeit befasst sich mit dem Thema Responsible Research and Innovation (RRI). Die Ziele der Arbeit sind die Klärung des Begriffs sowie die Ermittlung des aktuellen Stands der Forschung in dem Gebiet. RRI ist ein Konzept, welches wesentlich von der Europäischen Kommission (EC) geprägt wurde. Es ist zusammengesetzt aus Verantwortung, Forschung und Innovation, welche hier zunächst einzeln betrachtet werden. Verantwortung setzt sich gemäß der hier verwendeten Definition von Clausen (2009) aus Subjekt („Wer übernimmt Verantwortung“), Objekt („wofür,“), Adressaten („wem gegenüber“) und Instanzen („und wieso?“) zusammen. Im Rahmen des konzeptuellen Teils dieser Arbeit wird die Eigenschaft von Unternehmen als Verantwortungssubjekte damit begründet, dass sie zielgerichtet handeln und vor allem die Gesellschaft, welche gleichzeitig als wichtiger Adressat und als Instanz der Verantwortung auftritt, sie zunehmend für die Folgen ihrer Handlungen in die Pflicht nimmt. Das Gebiet der Nachhaltigkeit mit seinen Säulen Ökonomie, Ökologie und Soziales wird außerdem als Verantwortungsobjekt eingehend betrachtet. Innovation und ihre Teilmenge Forschung werden in dieser Arbeit als komplexe Prozesse verstanden, die Unternehmensziele auf neuartige Weise umsetzen. Mittels einer Literaturanalyse nach Webster & Watson (2002) wird der aktuelle Stand der Forschung zu RRI ermittelt. Der Großteil der verwendeten Literatur wird dabei als konzeptioneller Natur identifiziert. Trotz großer Unklarheiten, die noch vorherrschen, lassen sich vier Dimensionen von RRI herauslesen: Deliberation, Antizipation, Reflexivität und Reaktivität. Die Dimensionen, welche von der EC verwendet werden, sind demnach eher als Aktivitäten einzuordnen. Forschung und Innovation, welche nach RRI ausgerichtet wird, bezieht Stakeholder und insbesondere die Gesellschaft von Anfang an in den Prozess ein, betrachtet ihre möglichen Auswirkungen und stellt ihre Hintergründe und grundlegenden Werte kontinuierlich in Frage. Den wichtigsten Aspekt stellt dabei die Anpassungsfähigkeit des Prozesses gemäß den Ergebnissen aus den übrigen Dimensionen dar. Alle Aktivitäten basieren auf Verantwortung und Nachhaltigkeit und werden durch geeignete Steuerung integriert. Über die konzeptionelle Arbeit hinaus wurde erst wenig Forschung durchgeführt, insbesondere was Operationalisierung und Implementierung von RRI angeht. Für letztere wird hier die Einbettung in einen Stage-Gate-Prozess nach Cooper (2010) vorgeschlagen. Auch die tatsächliche Ausgestaltung der konzeptionellen Dimensionen muss jedoch noch konkretisiert werden. Außerdem muss insgesamt das Bewusstsein für RRI geschärft werden und ein Bekenntnis zu RRI erfolgen.
Moderne Softwaresysteme bestehen aus verschiedenen Programmiersprachen, Softwaretechnologien und Artefakten. Dadurch wird es für Entwickler komplexer, den Quelltext sowie die enthaltenen Abhängigkeiten zu verstehen. Entsprechend muss ein größerer Aufwand in die Erstellung von Dokumentation gesteckt werden. Eine Möglichkeit zur Dokumentation einer Software mit dem Fokus auf die benutzten Technologien stellen linguistische Architekturen dar. Diese können z. B. durch die MegaL Ontologie beschrieben werden. Da die Erstellung einer solchen linguistischen Architektur für ein beliebiges Softwareprojekt kompliziert ist, beschreibt diese Arbeit einen Ansatz zur automatischen Erstellung einer solchen linguistischen Architektur. Dafür wird das Open Source Framework Apache Jena verwendet, welches Semantic Web Technologien wie RDF und OWL benutzt. Mit diesem können spezifische Regeln definiert werden, welche aus existierenden RDF-Triplen neue ableiten. Dieser Ansatz wird schließlich in einer Case Study an zehn verschiedenen Open Source Projekten getestet. Dabei soll eine linguistische Architektur in MegaL extrahiert werden, welche die Nutzung von Hibernate beschreibt. Mit der Hilfe von spezifischen Metriken wird das Ergebnis dann mit einem internen und externen Ansatz evaluiert.
Die vorliegende Masterarbeit thematisiert die Evaluation einer sprachgesteuerten Lösung in der Produktion mit multimodaler Eingabe. Dabei wurden die Usability und die Benut-zerfreundlichkeit eines gewählten Sprachdialogsystems bewertet. Die Bewertung wurde mit Hilfe von Benutzertests und eines modifizierten SASSI-Fragebogens durchgeführt. Weiterhin wurden auch technische Kriterien, wie die Wortfehlerrate und die Out-of-grammar Rate zur Hilfe gezogen. Für den Versuch wurden zwei verschiedene Szenarien aus einer realen Produktionsum-gebung definiert. Dabei sollten die Teilnehmer verschiedene Aufgaben mit Hilfe des Testsystems erledigen. Die Interaktion mit dem Sprachdialogsystem fand anhand von ge-sprochenen Befehlen statt, welche durch eine Grammatik definiert wurden. Die Sprach-kommandos wurden durch die Zuhilfenahme eines WLAN-Headsets an das Sprachsys-tem übertragen. Während des Versuchs wurden Aussagen der Teilnehmer protokolliert und die technischen Kriterien notiert.
Das Ergebnis der Evaluation verdeutlicht, dass das Sprachdialogsystem eine hohe Quali-tät bezüglich Usability und Benutzerfreundlichkeit aufweist. Dabei sind die Wortfehler-rate und die Out-of-grammar Rate sehr niedrig ausgefallen und das System wurde von den Benutzern deutlich positiv bewertet. Nichtsdestotrotz wurden einige Kritikpunkte ge-nannt, die zu einer Verbesserung des Systems beitragen können.
Topic Models sind ein beliebtes Werkzeug um Themen in großen Textkorpora zu identifizieren. Diese Textkorpora enthalten oft versteckte Meta-Gruppen. Das Größenverhältnis zwischen diesen Gruppen variiert meist stark. Die Präsenz dieser Gruppen wird in der Praxis oft ignoriert. Diese Masterarbeit erforscht daher, ob diese Gruppen Einfluss auf ein Topic Model haben.
Um den Einfluss zu testen, wird LDA auf Samples mit unterschiedlichen Gruppengrößen trainiert. Die Samples werden von Textkorpora mit großen Gruppenunterschieden (d.h. Sprachunterschieden) und kleinen Gruppenunterschieden (d.h. Unterschiede in der politische Orientierung) generiert. Die Leistungsfähigkeit von LDA wird per "Perplexity" evaluiert.
Der Einfluss von Gruppen auf die generelle Leistungsfähigkeit von Topic Models hängt von verschiedenen Faktoren der Gruppen ab, z.B. der Vorhersagbarkeit der Sprache generell. Die Leistungsfähigkeit der Topic Models für die einzelnen Gruppen wird von der Variation der relativen Gruppengrößen beeinflusst. Allerdings ist der Effekt für alle Datensätze verschieden.
LDA kann die Gruppen intern unterscheiden, wenn die Unterschiede der Gruppen groß genug sind (z.B. Sprachunterschiede). Der Anteil der Topics, die explizit für eine Gruppe gelernt werden, ist jedoch unterproportional zu dem Anteil der Gruppe im Trainingskorpus. Dieser Effekt verstärkt sich für kleinere Minderheiten.
The output of eye tracking Web usability studies can be visualized to the analysts as screenshots of the Web pages with their gaze data. However, the screenshot visualizations are found to be corrupted whenever there are recorded fixations on fixed Web page elements on different scroll positions. The gaze data are not gathered on their fixated fixed elements; rather they are scattered on their recorded scroll positions. This problem has raised our attention to find an approach to link gaze data to their intended fixed elements and gather them in one position on the screenshot. The approach builds upon the concept of creating the screenshot during the recording session, where images of the viewport are captured on visited scroll positions and lastly stitched into one Web page screenshot. Additionally, the fixed elements in the Web page are identified and linked to their fixations. For the evaluation, we compared the interpretation of our enhanced screenshot against the video visualization, which overcomes the problem. The results revealed that both visualizations equally deliver accurate interpretations. However, interpreting the visualizations of eye tracking Web usability studies using the enhanced screenshots outperforms the video visualizations in terms of speed and it requires less temporal demands from the interpreters.
Mapping ORM to TGraph
(2017)
Object Role Modeling (ORM) is a semantic modeling language used to describe objects and their relations amongst each other. Both objects and relations may be subject to rules or ORM constraints.
TGraphs are ordered, attributed, typed and directed graphs. The type of a TGraph and its components, the edges and vertices, is defined using the schema language graph UML (grUML), a profiled version of UML class diagrams. The goal of this thesis is to map ORM schemas to grUML schemas in order to be able to represent ORM schema instances as TGraphs.
Up to this point, the preferred representation for ORM schema instances is in form of relational tables. Though mappings from ORM schemas to relational schemas exist, those publicly available do not support most of the constraints ORM has to offer.
Constraints can be added to grUML schemas using the TGraph query language GReQL, which can efficiently check whether a TGraph validates the constraint or not. The graph library JGraLab provides efficient implementations of TGraphs and their query language GReQL and supports the generation of grUML schemas.
The first goal of this work is to perform a complete mapping from ORM schemas to grUML schemas, using GReQL to sepcify constraints. The second goal is to represent ORM instances in form of TGraphs.
This work gives an overview of ORM, TGraphs, grUML and GReQL and the theoretical mapping from ORM schemas to grUML schemas. It also describes the implementation of this mapping, deals with the representation of ORM schema instances as TGraphs and the question how grUML constraints can be validated.
Das Internet der Dinge – Internet of Things (IoT) – ist kürzlich der entfernten Vision des Ubiquitous Computing entwachsen und findet nunmehr konkret Eingang in Politik und Wirtschaft, welches sich in aufwendigen Förderprogrammen äußert. Unternehmen sehen sich mit dem von Experten vorhergesagten, gravierenden Wandel von Geschäftsmodellen konfrontiert und müssen darauf reagieren, um im Wettbewerb bestehen zu können. Obgleich daher ein Bedarf zur Strategieentwicklung bezüglich der kommenden Veränderungen in Unternehmen besteht, ist das Thema des organisationsbezogenen Wandels in Hinblick auf die neue Technologie in der akademischen Diskussion derzeit noch wenig präsent. Die vorliegende Arbeit erforscht IoT-verknüpften Wandel in Unternehmen, indem sie un- terschiedliche Arten des Wandels identifiziert und klassifiziert. Sie kombiniert zu diesem Zweck den methodischen Ansatz der gegenstandsbezogenen Theoriebildung (Grounded Theory) mit einer Diskussion und Klassifikation von identifizierten Veränderungen vor dem Hintergrund eines strukturierten Literaturüberblicks im Bereich des Wandels in Organisationen. Diesbezüglich erfolgt eine Meta-Analyse von Fallstudien mittels einer qualitativ-explorativen Kodierungs-Methode zur Identifizierung von Kategorien des organisationsbezogenen Wandels, welcher mit der Einführung von IoT in Verbindung steht. Darüber hinaus wird eine Gegenüberstellung der identifizierten Kategorien mit vorherigem technologie-verknüpftem Wandel am Beispiel von Electronic Business (e-business), Enterprise Resource Planning (ERP)-Systemen und Customer Relationship Management (CRM)-Systemen durchgeführt. Den Hauptbeitrag dieser Arbeit stellt die Entwicklung eines umfassenden Modells von organisationsbezogenem Wandel bezüglich IoT dar. Das Modell präsentiert zwei Hauptthemen des Wandels, welche nahe legen, dass persönliche, intelligente Objekte Unternehmen dadurch verändern werden, dass vermehrt personen-gebundene, mobile Geräte zum Einsatz kommen. Objekte schlagen ihren Nutzern Tätigkeiten oder den gesamten Arbeitsablauf vor und versuchen gefährliche Situationen zu vermeiden. Gleichzeitig wird die Verfügbarkeit von Informationen im Unternehmen bis zur ubiquitären Präsenz steigen. Dies wird es letztlich ermöglichen, Informationen bezüglich Objekten und Personen jederzeit und an jedem Ort zu nutzen. Als Nebenergebnis gibt die vorliegende Arbeit einen Überblick über Konzepte der wissenschaftlichen Literatur im Bereich technologie-verknüpften Wandels in Organisationen.
Der Markt der virtuellen Realität entwickelt sich derzeit besonders im Hinblick auf die Hardware kontinuierlich weiter. Infolgedessen ergeben sich immer weitere Anwendungsmöglichkeiten. Neben der Spielebranche bieten sich auch der Forschung neue Möglichkeiten. So lassen sich auch Wahrnehmungsphänomene mithilfe dieser Technologie erforschen. Die vorliegende Arbeit beschäftigt sich daher mit der Untersuchung des induzierten Roelofs Effekts in der virtuellen Realität sowie in der Wirklichkeit anhand eines Computerbildschirms. Dieser beschreibt eine Fehlwahrnehmung, die auftritt, wenn die individuelle Körpermitte und ein Rahmen, der ein optisches Zielobjekt umfasst, verschoben zueinander auftreten, was zu einer Fehllokalisierung des Objekts führt. Die folgende Untersuchung soll Aufschluss über die Beeinflussung durch den Rahmen eines Anzeigegeräts geben. Zudem werden Rückschlüsse über die Eignung der virtuellen Realität bezüglich der Wahrnehmungsforschung gezogen. Die Ergebnisse in der virtuellen Realität weisen ein stärkeres Maß der Wahrnehmungsverzerrung durch den Roelofs Effekt auf, wodurch der feste Rahmen eines Anzeigegeräts als zusätzliche Orientierungshilfe vermutet werden kann.
This thesis explores the possibilities of probabilistic process modelling for the Computer Supported Cooperative Work (CSCW) systems in order to predict the behaviour of the users present in the CSCW system. Toward this objective applicability, advantages, limitations and challenges of probabilistic modelling are excavated in context of CSCW systems. Finally, as a primary goal seven models are created and examined to show the feasibilities of probabilistic process discovery and predictions of the users behaviour in CSCW systems.
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.
The extensive literature in the data visualization field indicates that the process of creating efficient data visualizations requires the data designer to have a large set of skills from different fields (such as computer science, user experience, and business expertise). However, there is a lack of guidance about the visualization process itself. This thesis aims to investigate the different processes for creating data visualizations and develop an integrated framework to guide the process of creating data visualizations that enable the user to create more useful and usable data visualizations. Firstly, existing frameworks in the literature will be identified, analyzed and compared. During this analysis, eight views of the visualization process are developed. These views represent the set of activities which should be done in the visualization process. Then, a preliminary integrated framework is developed based on an analysis of these findings. This new integrated framework is tested in the field of Social Collaboration Analytics on an example from the UniConnect platform. Lastly, the integrated framework is refined and improved based on the results of testing with the help of diagrams, visualizations and textual description. The results show that the visualization process is not a waterfall type. It is the iterative methodology with the certain phases of work, demonstrating how to address the eight views with different levels of stakeholder involvement. The findings are the basis for a visualization process which can be used in future work to develop the fully functional methodology.
Im Bereich Augmented Reality ist es von großer Bedeutung, dass virtuelle
Objekte möglichst realistisch in ein Kamerabild eingebettet werden. Nur
so ist es möglich, dem Nutzer eine immersive Erfahrung zu bieten. Dazu
gehört unter anderem, Verdeckung dieser Objekte korrekt zu behandeln.
Während schon verschiedene Ansätze existieren, dieses Verdeckungsproblem
zu beheben, wird in dieser Arbeit eine Lösung mittels Natural Image
Matting vorgestellt. Mit Hilfe einer Tiefenkamera wird das Kamerabild in
Vorder- und Hintergrund aufgeteilt und anschließend das virtuelle Objekt
im Bild platziert. Für Bereiche, in denen die Zugehörigkeit zu Vorder- oder
Hintergrund nicht eindeutig ist, wird anhand bekannter Pixel ein Transparenz-
Wert geschätzt. Es werden Methoden präsentiert, welche einen
Ablauf des Image Matting in Echtzeit ermöglichen. Zudem werden
Verbesserungsmöglichkeiten dieser Methoden präsentiert und gezeigt, dass
durch diese eine höhere Bildqualität für schwierige Szenen erreicht wird.
In scientific data visualization huge amounts of data are generated, which implies the task of analyzing these in an efficient way. This includes the reliable detection of important parts and a low expenditure of time and effort. This is especially important for the big-sized seismic volume datasets, that are required for the exploration of oil and gas deposits. Since the generated data is complex and a manual analysis is very time-intensive, a semi-automatic approach could on one hand reduce the time required for the analysis and on the other hand offer more flexibility, than a fully automatic approach.
This master's thesis introduces an algorithm, which is capable of locating regions of interest in seismic volume data automatically by detecting anomalies in local histograms. Furthermore the results are visualized and a variety of tools for the exploration and interpretation of the detected regions are developed. The approach is evaluated by experiments with synthetic data and in interviews with domain experts on the basis of real-world data. Conclusively further improvements to integrate the algorithm into the seismic interpretation workflow are suggested.
Semantische Daten zusammen mit General-Purpose-Programmiersprachen zu verwenden stellt nicht die einheitlichen Eigenschaften bereit, die man für eine solche Verwendung haben möchte. Die statische Fehlererkennung ist mangelhaft, insbesondere der statischen Typisierung anbetreffend. Basierend auf vorangegangener Arbeit an λ-DL, welches semantische Queries und Konzepte als Datentypen in ein typisiertes λ-Kalkül integriert, bringt dieses Werk dessen Ideen einen Schritt weiter, um es in eine Echtwelt-Programmiersprache zu integrieren. Diese Arbeit untersucht, wie λ-DLs Features erweitert und mit einer existierende Sprache vereinigt werden können, erforscht einen passenden Erweiterungsmechanismus und produziert Semantics4J, eine JastAdd-basierte Java-Sprachintegration für semantische Daten für typsichere OWL-Programmierung, zusammen mit Beispielen für ihre Verwendung.
Mit dem Aufkommen von Head-Mounted Displays (HMDs) der aktuellen Generation erlangt Virtual Reality (VR) wieder großes Interesse im Feld von medizinischer Bildgebung und Diagnose. Exploration von CT oder MRT Daten in raumfüllender Virtual Reality stellt eine intuitive Anwendung dar. Allerdings gilt in Virtual Reality, dass das Aufrechterhalten einer hohen Bildwiederholungsrate noch wichtiger ist als bei konventioneller Benutzerinteraktion, die sitzend vor einem Bildschirm erfolgt. Es existieren starke wissenschaftliche Hinweise, die nahelegen, dass geringe Bildwiederholungsraten und hohe Latenzzeit einen starken Einfluss auf das Auftreten von Cybersickness besitzen. Diese Abschlussarbeit untersucht zwei praktische Ansätze, um den hohen Rechenaufwand von Volumenrendering zu überkommen. Einer liegt in der Ausnutzung von Kohärenzeigenschaften des besonders aufwändigen stereoskopischen Rendering Set-ups. Der Hauptbeitrag ist die Entwicklung und Auswertung einer neuartigen Beschleunigungstechnik für stereoskopisches GPU Raycasting. Zudem wird ein asynchroner Renderingansatz verfolgt, um das Ausmaß von Latenz im System zu minimieren. Eine Auswahl von Image-Warping Techniken wurden implementiert und systematisch evaluiert, um die Tauglichkeit für VR Volumenrendering zu bewerten.
Motion Capture bezeichnet das Aufnehmen, Weiterverarbeiten und auf ein 3D Modell Übertragen von reellen Bewegungen. Nicht nur in der Film- und Spieleindustrie schafft Motion Capture heute einen nicht mehr wegzudenkende Realismus in der Bewegung von Mensch und Tier. Im Kontext der Robotik, der medizinischen Bewegunsthearpie, sowie in AR und VR wird Motion Capture extensiv genutzt. Neben den etablierten optischen Verfah- ren kommen aber gerade in den letzen drei Bereichen auch vermehrt alternative Systeme, die auf Intertialsystemen (IMUs) basieren zum Einsatz, da sie nicht auf externe Kameras angewiesen sind und somit den Bewegungsraum deutlich weniger beschränken.
Schnell vorranschreitender technischer Fortschritt in der Herstellung solcher IMUs, erlaubt den Bau kleiner Sensoren die am Körper getragen werden können und die Bewegung an einen Computer übertragen. Die Entwicklung in der Anwendung von Inertialsystemen auf den Bereich des Motion Capture, steckt allerdings noch in den Kinderschuhen. Probleme wie Drift können bis- her nur durch zusätzliche Hardware, zur Korrektur der Daten, minimiert werden.
In der folgenden Masterarbeit wird ein IMU basiertes Motion Capture System aufgebaut. Dies umfasst den Bau der Hardware sowie die softwa- reseitige Verarbeitung der erhaltenen Bewegungsinformationen und deren Übertragung auf ein 3D Modell.
Diese Arbeit schlägt die Benutzung von MSR (Mining Software Repositories) Techniken zum Identifizieren von Software Entwicklern mit exklusiver Fachkenntnis zu spezifischen APIs und Programmierfachgebieten in Software Repositories vor. Ein versuchsweises Tool zum finden solcher “Islands of Knowledge” in Node.js Projekten wird präsentiert und in einer Fallstudie auf 180 npm packages angewandt. Dabei zeigt sich, dass jedes package im Durchschnitt 2,3 Islands of Knowledge hat, was dadurch erklärbar sein könnte, dass npm packages dazu tendieren nur einen einzelnen Hauptcontributor zu haben. In einer Umfrage werden die Verantwortlichen von 50 packages kontaktiert und nach ihrer Meinung zu den Ergebnissen des Tools gefragt. Zusammen mit deren Antworten berichtet diese Arbeit von den Erfahrungen, die mit dem versuchsweisen Tool gemacht wurden, und wie zukünftige Weiterentwicklungen noch bessere Aussagen über die Verteilung von Programmierfachwissen in Entwicklerteams machen könnten.
Das Internet der Dinge (IoT) ist ein Netzwerk bestehend aus adressierbaren, physikalischen Objekten, die Sensor-, Kommunikations- und Aktuator-Technologien bereitstellen und mit ihrer Umwelt interagieren (Geschickter 2015). Wie jedes neue Konzept, hat auch IoT Interesse über jeden Anwendungsbereich hinweg, sowohl in Theorie als auch Praxis, geweckt und die verfügbaren Technologien an ihre Grenzen gebracht. Diese Grenzen machen sich insbesondere dann bemerkbar, wenn die Anzahl von Dingen (Things), die über verschiedenste Anwendungsbereiche hinweg verwaltet werden müssen, steigt. Um die neuartigen Anforderungen zu erfüllen, wurde eine Fülle von verschiedenen Systemen entwickelt, die alle ihre eigenen Interpretationen einer IoT Architektur und ihrer jeweiligen Komponenten anwenden. Dies hat dazu geführt, dass IoT aktuell eher ein Intranet der Dinge als ein Internet der Dinge ist (Zorzi et al. 2010). Daher ist es Ziel dieser Arbeit, ein einheitliches Verständnis der Komponenten, die eine IoT Architektur bilden, zu erlangen und generische Spezifikationen in Form eines Ganzheitlichen IoT Architektur Frameworks zur Verfügung zu stellen.
Diese Arbeit verwendet Design Science Research (DSR), um die genannte Architektur auf Basis der einschlägigen Literatur zu entwickeln. Die Entwicklung des Ganzheitlichen IoT Architektur Frameworks umfasst die Nutzung zwei neuer Perspektiven auf IoT Architekturen (IoT Architecture Perspectives), die während der Analyse von IoT Architekturen in der Literatur identifiziert wurden. Die Anwendung dieser neuen Perspektiven führte zur Erkenntnis, dass eine weitere, ebenfalls neuartige, Komponente in der Literatur implizit erwähnt wird. Die Beschreibungen der Komponenten von verschiedenen IoT Architekturen wurden vereinheitlicht und mit der neuen Komponente, dem Thing Management System, in Beziehung gesetzt, um das Ganzheitliche IoT Architektur Framework zu entwickeln. Weiterhin wurde gezeigt, dass die Spezifikationen der Architektur als Vorlage für die Implementation eines Prototypen geeignet ist.
Der Hauptbeitrag dieser Arbeit ist ein vereinheitlichtes Verständnis der einzelnen Komponenten sowie deren Interaktionen einer IoT Architektur.
Koordinations- und Bewusstseinsmechanismen sind in Computer-Supported Cooperative Work (CSCW) und bei traditioneller Groupware von Wichtigkeit. Die Wissenschaft ist bestrebt, deren Bedeutung bei der Nutzung von Groupware und die damit verknüpfte Zusammenarbeit von Menschen tiefgründig zu untersuchen, um ihre Anwendung und Effizienz zu beschreiben. Dabei wurde bisher noch keine Klassifizierung der Mechanismen vorgenommen, um deren Gemeinsamkeiten und Unterschiede sowie ihre Anwendung herauszuarbeiten und ihrer Bedeutung im kollaborativem Umfeld nachzugehen. Zudem fehlt die Betrachtung der Mechanismen in neuen Formen von Groupware. In der Wissenschaft als auch in der Praxis haben Enterprise Collaboration Systems (ECS), die Social Software Funktionalität beinhalten, wachsende Bedeutung. Basierend auf der Kombination von traditioneller Groupware und Social Software Komponenten beinhalten diese auch Mechanismen, die die Kollaboration vereinfachen sollen, jedoch bisher noch nicht hinreichend untersucht wurde.
Das Ziel dieser wissenschaftlichen Arbeit ist es daher, Beispiele für Koordinierungs- und Bewusstseinsmechanismen in der akademischen Literatur zu identifizieren um einen ersten Überblick über diese zu verschaffen. Aufbauend darauf ist es zudem Ziel, die Beispielmechanismen zu klassifizieren. Basierend auf einer Literaturanalyse werden Konzepte aus der Literatur übernommen und auf die ausgewählten Mechanismen angewendet um diese zu analysieren und zu klassifizieren. Dabei werden die Gemeinsamkeiten und Unterschiede der Mechanismen herauszuarbeiten und beschrieben. Um ein Verständnis für die Anwendung von Koordinations- und Bewusstseinsmechanismen zu verdeutlichen, werden einige Mechanismen exemplarisch visualisiert. Die Beispiele beziehen sich auf die verschiedenen Klassifizierungsgruppen. Die Auswahl der Mechanismen für die Visualisierung basiert auf deren signifikanten Unterschiede in ihrer Funktionalität. Anschließend werden die ausgewählten Mechanismen, die in der Literatur traditioneller Groupware identifiziert wurden, in kleinen Ausmaß in sozial integrierter ECS kon-trollier. Dabei gilt es herauszufinden, ob die Beispielmechanismen vorzufinden sind und ob neue Mechanismen identifiziert werden können. Als Praxisbeispiel von ECS mit Sozialer Software dient die kollaborative Plattform von IBM Connections. IBM Connections wird an der Universität Koblenz eingesetzt, um die Plattform „UniConnect“ zu betreiben. Anhand einer ersten Toolanalyse wird herausgearbeitet, welche von den identifizierten Beispielen an Mechanismen in IBM Connections angewendet werden. Diese Arbeit stellt erste Schritte in der Untersuchung von Koordinierungs- und Bewusstseinsmechanismen in ECS mit Social Software dar. Darüber hinaus sollen Beispiele für neue, bisher unbekannte Mechanismen herausgearbeitet werden, die im Zuge des sozialen Faktors zu kollaborativen Arbeit eingesetzt werden.
Der Beitrag soll dazu dienen, Beispiele von Koordinierungs- und Bewusstseinsmechanismen in der Literatur zu identifizieren, zu analysieren und diese zusammenbringen um einen ersten Überblick zu erhalten. Desweiten wird eine erste Klassifizierung anhand der Unterschiedlichkeiten der Mechanismen vorgenommen. Nebenbei soll der Betrag einen Anreiz für weitere Untersuchungen schaffen, Koordinierungs- und Bewusstseinsmechanismen in sozial integrierter ECS tiefer zu untersuchen.
Diese Arbeit betrachtet die Online-Aufmerksamkeit gegenüber Forschern und deren Forschungsthemen. Die enthaltenen Studien vergleichen die Aufmerksamkeitsdynamiken gegenüber Gewinnern wichtiger Forschungspreise mit Forschern die keinen Preis erhalten haben. Web-Signale wie Wikipedia Seitenaufrufe, Editierungen von Wikipedia-Artikeln und Google Trends wurden als Proxy für Online-Aufmerksamkeit verwendet. Dabei wurde herausgefunden, dass Wikipedia-Artikel über die Forschungsthemen von Gewinnern zeitnahe zum Artikel über den Gewinner erstellt wurden. Eine mögliche Erklärung hierfür könnte sein, dass die Forschungsthemen in einer engeren Beziehung zu den Gewinnern stehen. Dies würde die These unterstützen, dass Gewinner ihr Forschungsgebiet eingeführt haben. Zusätzlich wuchs die Online-Aufmerksamkeit gegenüber den Forschungsthemen von Gewinnern nach dem Tag an dem der Artikel über den Forscher erstellt wurde. Daraus kann abgeleitet werden, dass Themen von Gewinnern beliebter sind als die Themen von Forschern die keinen Preis erhalten haben. Des Weiteren wurde gezeigt, dass Gewinner des Nobelpreises vor der Verkündung weniger Online-Aufmerksamkeit erhalten als die Liste von Nominierten basierend auf den Thomson Reuters Citation Laureates. Ferner sank die Beliebtheit gegenüber der Preisträger schneller als gegenüber Forschern die keinen Preis erhalten haben. Zuletzt wurde demonstriert, dass eine Vorhersage der Gewinner basierend auf Aufmerksamkeitsdynamiken gegenüber Forschern problematisch ist.
Das Ziel dieser wissenschaftlichen Arbeit ist es, verschiedene vorhandene cloud-basierte Internet of Things (IoT) Entwicklungsplattformen zu untersuchen und hier im Speziellen eine Plattform (IBM Watson IoT) anhand eines Anwendungsfallszenarios detailliert zu untersuchen. Bei IoT handelt es sich um eine aufkommende Technologie mit der Vision, die virtuelle Welt (z.B. Clouds, soziale Netzwerke) und die physikalische Welt (z.B. Geräte, Autos, Kühlschrank, Menschen, Tiere) durch die Internettechnologie miteinander zu verknüpfen. Beispielsweise kann das IoT-Konzept von “smart cities”, welche das Ziel verfolgen, die Produktivität und die Geschäftsentwicklung sowie die sozialen und kulturellen Angebote in der Stadt zu verbessern, durch die Nutzung von Sensoren, Aktuatoren, Clouds und mobilen Geräten erreicht werden (IEEE, 2015). Ein Sensor (z.B. ein Temperatursensor) in einem Gebäude (globale Welt) kann Echtzeitdaten an die IoT Cloud-Plattform (virtuelle Welt) senden, wo sie überwacht, gespeichert und analysiert werden oder eine Aktion auslösen können (z.B. das Kühlsystem in einem Gebäude anschalten, wenn die Temperatur eine bestimmte Grenze überschreitet). Obwohl IoT viele Möglichkeiten in verschiedenen Bereichen schafft (z.B. Transportwesen, Gesundheitsversorgung, verarbeitende Industrie), bringt es auch Herausforderungen mit sich, wie z.B. die Standardisierung, Interoperabilität, Skalierbarkeit, Sicherheit und Privatsphäre. In diesem Bericht werden IoT Konzepte und verwandte Schlüsselprobleme behandelt.
Der Fokus dieser wissenschaftlichen Untersuchung liegt in dem Vergleich verschiedener cloud-basierter IoT Plattformen, um die geschäftlichen Aspekte und die technischen Funktionen zu verstehen, die diese bieten. Die cloud-basierten IoT Plattformen von IBM, Google, Microsoft, PTC und Amazon wurden dabei untersucht.
Für die Ausgestaltung dieser Arbeit wurde die Design Science Research (DSR) Methode verwendet; für die Nachbildung des Echtzeit-IoT Systems wurde die IOT-A modellig Methode verwendet.
Der Vergleich verschiedener cloud-basierter IoT Entwicklungsplattformen zeigt, dass alle untersuchten Plattformen einfache IoT Funktionen bereitstellen, wie z.B. die Verbindung von IoT Geräten und der cloud-basierten IoT Plattform, das Sammeln von Daten von IoT Geräten, die Datenspeicherung und die Datenanalyse. Jedoch ist die IBM IoT Plattform den anderen Plattformen gegenüber aufgrund des integrierten Laufzeitsystems im Vorteil; dies macht sie zudem entwicklerfreundlich. Aus diesem Grund wurde die IBM Watson IoT für Bluemix für die weitere Untersuchung ihrer Einsatzmöglichkeiten ausgewählt. Das Angebot von IBM Watson IoT für Bluemix beinhalten Analytik, Risikomanagement, Verbindungs- und Informationsmanagement. Es wurde ein Anwendungsfall implementiert, um die Einsatzmöglichkeiten der IBM Watson IoT Plattform einzuschätzen. Die digitalen Artefakte (d.h. Anwendungen) wurden entwickelt, um die IoT Lösung von IBM zu bewerten. Die Ergebnisse zeigen, dass IBM eine skalierbare und entwickler- und einsetzungsfreundliche IoT Plattform bietet. Die enthaltene kognitive, kontextuelle und vorhersehbare Analytik erlaubt eine vielversprechende Funktionsweise, die Einblicke auf Basis der IoT Daten gewährt, die durch Sensoren oder andere IoT Geräte übertragen werden.
Das Ziel der vorliegenden Arbeit war es, eine Methode zu entwickeln und zu evaluieren, die es Unternehmen ermöglicht, Werkzeuge des klassischen Dialogmarketings über das Internet zu nutzen. Dazu wurde ein Prototyp einer Internetseite mit erweiterter Echtzeit-Interaktion (eEI) implementiert und anhand eines Nutzertests evaluiert. Hauptbestandteil der Evaluationsmethodik war die auf dem SERVQUAL-Model basierende, fünfdimensionale Messung der "e-service quality" nach Gwo-Guang Lee und Hsiu-Fen Lin. Die statistische Auswertung des Nutzertests hat eine signifikante und positive Korrelation zwischen der im Rahmen dieser Arbeit entwickelten, erweiterten Echtzeit-Interaktion und der Nutzerzufriedenheit gezeigt. Vor der eigentlichen Realisierung der eEI wurde die Akzeptanz bisher eingesetzter Verfahren, auf der Grundlage des "Technology Acceptance Model" nach Fred D. Davis, geprüft.
While Virtual Reality has been around for decades it gained new life in recent years. The release of the first consumer hardware devices allows fully immersive and affordable VR for the user at home. This availability lead to a new focus of research on technical problems as well as psychological effects. The concepts of presence, describing the feeling of being in the virtual place, body ownership and their impact are central topics in research for a long time and still not fully understood.
To enable further research in the area of Mixed Reality, we want to introduce a framework that integrates the users body and surroundings inside a visual coherent virtual environment. As one of two main aspects we want to merge real and virtual objects to a shared environment in a way such that they are no longer visually distinguishable. To achieve this the main focus is not supposed to be on a high graphical fidelity but on a simplified representation of reality. The essential question is, what level of visual realism is necessary to create a believable mixed reality environment that induces a sense of presence in the user? The second aspect considers the integration of virtual persons. Can characters be recorded and replayed in a way such that they are perceived as believable entities of the world and therefore act as a part of the users environment?
The purpose of this thesis was the development of a framework called Mixed Reality Embodiment Platform. This inital system implements fundamental functionalities to be used as a basis for future extensions to the framework. We also provide a first application that enables user studies to evaluate the framework and contribute to aforementioned research questions.
Prototyp einer generischen Recommendation Engine basierend auf Echtzeit-Assoziationsanalysen mit R
(2016)
In dieser Arbeit wurde unter Verwendung der Programmiersprache R ein Prototyp zur Erstellung einer Recommendation Engine zur Aufdeckung von Assoziationen innerhalb einer gegebenen Datenmenge entwickelt. Die Berechnung der Assoziationen findet hierbei in Echtzeit statt und des Weiteren wurden die Analysefunktionen generisch programmiert, um ein schnelles Einbinden und einfaches Parametrisieren von Datensätzen zu ermöglichen. Die Entwicklung fußte auf der grundlegenden Motivation, Data Mining Methoden wie das Assoziationsverfahren teilweise zu automatisieren, um damit generierte Lösungen effizienter umsetzen zu können. Der Entwicklungsprozess war insgesamt erfolgreich, sodass alle Grundfunktionalitäten im Sinne eines evolutionären Prototypings vorhanden sind.
The publication of open source software aims to support the reuse, the distribution and the general utilization of software. This can only be enabled by the correct usage of open source software licenses. Therefore associations provide a multitude of open source software licenses with different features, of which a developer can choose, to regulate the interaction with his software. Those licenses are the core theme of this thesis.
After an extensive literature research, two general research questions are elaborated in detail. First, a license usage analysis of licenses in the open source sector is applied, to identify current trends and statistics. This includes questions concerning the distribution of licenses, the consistency in their usage, their association over a period of time and their publication.
Afterwards the recommendation of licenses for specific projects is investigated. Therefore, a recommendation logic is presented, which includes several influences on a suitable license choice, to generate an at most applicable recommendation. Besides the exact features of a license of which a user can choose, different methods of ranking the recommendation results are proposed. This is based on the examination of the current situation of open source licensing and license suggestion. Finally, the logic is evaluated on the exemplary use-case of the 101companies project.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung der Rolle von Vertrauen zwischen den Kapitalnehmern und Kapitalgebern auf einer der größten Crowdfunding-Plattformen, Kickstarter. Kernthema ist die Beantwortung der Forschungsfragen, wie das Vertrauen zwischen den Kapitalgebern und Kapitalnehmern im Kontext von Crowdfunding entsteht, welche Faktoren das Maß von Vertrauen in dieser Beziehung beeinflussen und welche Signale für die Vertrauensbildung verantwortlich sind. Das Ziel dieser Arbeit besteht darin, das von Zerwas, Kilian und von Kortzfleisch 2015 vorgestellte konzeptuelle Modell der Einflussfaktoren von Vertrauen im Kontext von Crowdfunding aus Sicht der Kapitalgeber zu überprüfen und gegebenenfalls zu erweitern.
Auf Grundlage einer Literaturrecherche und qualitativer, leitfadenorientierter Interviews werden die gesammelten Daten diskutiert, bestehende Faktoren verifiziert und weiterführend neue Faktoren und Signale identifiziert, die die Bildung von Vertrauen auf Crowdfunding-Plattformen beeinflussen.
Als Ergebnis werden die Überarbeitung sowie Erweiterung des Ausgangsmodells um die neuen Faktoren geographische Nähe, Vermittlerqualität und Verständnis vom Konzept Crowdfunding vorgeschlagen. Anhand der Häufigkeit der Erwähnung und Relevanz der Faktoren und beeinflussenden Signale in den durchgeführten Interviews wird weiterführend eine Gewichtung der Einzelfaktoren vorgenommen. Abschließend werden Implikationen und Bedeutung für Wissenschaft und Forschung diskutiert.
Eine der grundlegenden Entscheidungen bei der Entwicklung eines Systems ist die Darstellung der Daten. Üblicherweise werden in der Computergrafik Objekte durch Dreiecke dargestellt. Allerdings existieren viele weitere Varianten, welche andere Stärken und Schwächen besitzen. In dieser Arbeit soll die Repräsentation von Objekten durch Distanzfelder untersucht werden. Distanzfelder sind Funktionen, welche für jeden Raumpunkt die Distanz zum nächsten Oberflächenpunkt angeben. Aus dieser einfachen Beschreibung lassen sich viele interessante Eigenschaften ableiten, welche zur Darstellung einer Vielzahl von Formen, Operationen und Effekten genutzt werden können. Es wird ein Überblick über die Hintergründe und Methoden des Distanzfeld-Renderings gegeben. Weiterhin werden verschiedene neue oder erweiterte Ansätze vorgestellt, etwa zur Darstellung impliziter Oberflächen, approximativer indirekter Beleuchtung oder einer GPU Implementation.
In recent years head mounted displays (HMD) and their abilities to create virtual realities comparable with the real world moved more into the focus of press coverage and consumers. The reason for this lies in constant improvements in available computing power, miniaturisation of components as well as the constantly shrinking power consumption. These trends originate in the general technical progress driven by advancements made in smartphone sector. This gives more people than ever access to the required components to create these virtual realities. However at the same time there is only limited research which uses the current generation of HMDs especially when comparing the virtual and real world against each other. The approach of this thesis is to look into the process of navigating both real and virtual spaces while using modern hardware and software. One of the key areas are the spatial and peripheral perception without which it would be difficult to navigate a given space. The influence of prior real and virtual experiences on these will be another key aspect. The final area of focus is the influence on the emotional state and how it compares to the real world. To research these influences a experiment using the Oculus Rift DK2 HMD will be held in which subjects will be guided through a real space as well as a virtual model of it. Data will be gather in a quantitative manner by using surveys. Finally, the findings will be discussed based on a statistical evaluation. During these tests the different perception of distances and room size will the compared and how they change based on the current reality. Furthermore, the influence of prior spatial activities both in the real and the virtual world will looked into. Lastly, it will be checked how real these virtual worlds are and if they are sufficiently sophisticated to trigger the same emotional responses as the real world.
Die vorliegende Arbeit behandelt Techniken zur interakativen und physikalisch basierten Darstellung von Haaren für Computer-Generated Imagery (CGI). Dafür werden Techniken zur Simulation und Approximierung der Interaktionen von Licht mit Haar hergeleitet und vorgestellt. Des Weiteren wird beschrieben, wie Haare, trotz solch berechnungsintensiver Algorithmen, sehr interaktiv dargestellt werden können. Verfahren zur Berechnung von Schatten in Haaren sowie Ansätze zur effizienten Darstellung von Haar als transparente Geometrie werden ebenfalls vorgestellt. Einen Hauptschwerpunkt der Arbeit bildet dabei der DBK-Buffer, welcher im Rahmen dieser konzeptioniert, implementiert und evaluiert wurde. Mit Hilfe des DBK-Buffers ist es möglich tausende von transparenten Haaren sehr effizient darzustellen ohne auf Funktionalitäten der neusten Grafikkarten-Generation, oder sehr viel Videospeicher, angewiesen zu sein. Darüber hinaus wurde eine umfassende Evaluierung der beschriebenden Techniken bezüglich der visuellen Qualität, der Performanz und des Speicheraufwandes durchgeführt. Dabei wurde gezeigt, dass Haare nicht nur mit interaktiven, sondern sogar mit echtzeitfähigen Bildwiederholungsraten physikalisch basiert dargestellt werden können.
“Did I say something wrong?” A word-level analysis of Wikipedia articles for deletion discussions
(2016)
Diese Arbeit beschäftigt sich damit, linguistische Erkenntnisse auf Wortebene über schriftlichen Diskussionen zu gewinnen. Die Unterscheidung zwischen Botschaften, welche sich förderlich auf Diskussionen auswirken und jene, welche diese unterbrechen, spielte dabei eine besondere Rolle. Hierbei lag ein Schwerpunkt darauf, zu ermitteln, ob Ich- und Du-Botschaften charakteristisch für die beiden Kommunikationsarten sind. Diese Botschaften sind über Jahre hinweg zu Empfehlungen für erfolgreiche Kommunikation avanciert. Ihre zugeschriebene Wirkung wurde zwar mehrfach bestätigt, jedoch geschah dies stets in kleineren Studien. Deshalb wurde in dieser Arbeit mithilfe der Löschdiskussionen der englischen Wikipedia und der Liste gesperrter Nutzer eine vollautomatische Erstellung eines annotierten Datensatzes entwickelt. Dabei wurden Diskussionsbotschaften entweder als förderlich oder schädlich für einen konstruktiven Diskussionsverlauf markiert. Dieser Datensatz wurde anschließend im Rahmen einer binären Klassifikation verwendet, um charakteristische Worte für die beiden Kommunikationsarten zu bestimmen. Es wurde zudem untersucht, ob anhand von Synsemantika (auch bekannt als Funktionswörter) wie Pronomen oder Konjunktionen eine Entscheidung über die Kommunikationsart einer Botschaft getroffen werden kann. Du-Botschaften wurden, übereinstimmend mit ihrer zugeschriebenen negativen Auswirkung auf Kommunikation, als schädlich in den durchgeführten Untersuchungen identifiziert. Entgegen der zugeschriebenen positiven Auswirkung von Ich-Botschaften, wurde bei diesen ebenfalls eine schädlich Wirkung festgestellt. Eine klare Aussage über die Relevanz von Synsemantika konnte anhand der Ergebnisse nicht getroffen werden. Weitere charakteristische Worte konnten nicht festgestellt werden. Die Ergebnisse deuten darauf hin, dass ein anderes Modell textliche Diskussionen potentiell besser abbilden könnte.
Statistical Shape Models (SSMs) are one of the most successful tools in 3Dimage analysis and especially medical image segmentation. By modeling the variability of a population of training shapes, the statistical information inherent in such data are used for automatic interpretation of new images. However, building a high-quality SSM requires manually generated ground truth data from clinical experts. Unfortunately, the acquisition of such data is a time-consuming, error-prone and subjective process. Due to this effort, the majority of SSMs is often based on a limited set of this ground truth training data, which makes the models less statistically meaningful. On the other hand, image data itself is abundant in clinics from daily routine. In this work, methods for automatically constructing a reliable SSM without the need of manual image interpretation from experts are proposed. Thus, the training data is assumed to be the result of any segmentation algorithm or may originate from other sources, e.g. non-expert manual delineations. Depending on the algorithm, the output segmentations will contain errors to a higher or lower degree. In order to account for these errors, areas of low probability of being a boundary should be excluded from the training of the SSM. Therefore, the probabilities are estimated with the help of image-based approaches. By including many shape variations, the corrupted parts can be statistically reconstructed. Two approaches for reconstruction are proposed - an Imputation method and Weighted Robust Principal Component Analysis (WRPCA). This allows the inclusion of many data sets from clinical routine, covering a lot more variations of shape examples. To assess the quality of the models, which are robust against erroneous training shapes, an evaluation compares the generalization and specificity ability to a model build from ground truth data. The results show, that especially WRPCA is a powerful tool to handle corrupted parts and yields to reasonable models, which have a higher quality than the initial segmentations.
Das Ziel dieser Masterarbeit war es, ein Konzept für einen mobilen Stadtführer mit gamebasierten Inhalten zu entwerfen und prototypisch umzusetzen.
Die Anwendung soll ein flexibles und unabhängiges Entdecken der Stadt Koblenz ermöglichen. Basierend auf den geographischen Daten wurden in der Anwendung stadthistorische Informationen sowie interessante Geschichten zu verschiedenen Orten bereitgestellt. Diese Informationen wurden mit spielerischen Elementen kombiniert, um ein motivierendes Konzept zu schaffen.
Dafür wurden zunächst verwandte Ansätze untersucht und darauf aufbauend unter Berücksichtigung eigener Ideen ein neues Konzept entwickelt. Das Konzept wurde prototypisch als Android-Anwendung umgesetzt. Das Ergebnis wurde in einer abschließenden Evaluation mit 15 Probanden untersucht. Dabei wurden mit Hilfe eines Fragebogens unter anderem die Bedienbarkeit, die Motivation durch die Spielelemente und der Mehrwert der Anwendung betrachtet.
Politische und gesellschaftliche Polarisierung ist ein interessantes Phänomen, über dessen Auswirkungen viele unterschiedliche, zum Teil auch gegensätzliche, Theorien existieren.
Polarisierung wird in der Literatur mit unterschiedlichen Methoden gemessen. Die vorliegende Arbeit gibt einen Überblick über existierende Polarisierungsmaße und es werden zwei neuartige Maße aus dem Gebiet der spektralen Graphentheorie vorgestellt. Anschließend werden die bekannten und die neu entwickelten Maße auf den LiquidFeedback-Datensatz der Piratenpartei Deutschland angewandt. Als Ergebnis lässt sich festhalten, dass die Maße teilweise zu unterschiedlichen Ergebnisse kommen. Dies liegt darin begründet, dass nicht alle Maße das Gleiche messen. Um zu verstehen was die einzelnen Maße aussagen, werden wesentliche Eigenschaften von Polarisierungsmaßen herausgearbeitet und es wird für jedes Maß dargelegt, welche Eigenschaften es erfüllt. Die angesprochenen Polarisierungsmaße beziehen sich auf die Entwicklung der Polarisierung zwischen Usern des LiquidFeedback-Systems. Bei der Betrachtung von einzelnen Personen und Abstimmungen fiel unter anderem auf, dass polarisierende Personen mehr Macht durch
Delegationen besitzen als die restlichen Personen und dass polarisierte Vorschläge circa doppelt so häufig umgesetzt werden.
In dieser Arbeit beschäftigen wir uns mit der Frage, ob die empfundene Herausforderung, der Flow-Zustand und der Spielspaß in Computerspielen miteinander zusammenhängen und welchen Einfluss die motivationspsychologischen Komponenten Erfolgsmotivation, Misserfolgsmotivation und Erfolgswahrscheinlichkeit dabei haben. Außerdem wollen wir wissen, ob eine freie Wahl des Schwierigkeitsgrads der optimale Weg zum Flow-Zustand ist. Um diese Theorien zu untersuchen, wurde eine Studie anhand einer Online-Umfrage durchgeführt, in welcher die Probanden das Spiel “flOw“ spielten. Die Ergebnisse wurden ausgewertet mithilfe einer zweifaktoriellen Varianzanalyse mit Messwiederholung und Tests auf Korrelation. Dabei fanden wir heraus, dass tatsächlich ein Zusammenhang zwischen Herausforderung, Flow und Spaß existiert und die Motivation dabei indirekt eine Rolle spielt.
Wärmeübertrager werden zur Aufkonzentrierung verschiedener flüssiger Produkte, zur Entsalzung von Meerwasser, aber auch als Kühlelemente in technischen Anlagen eingesetzt. Dabei kommen die Verdampfelemente nicht nur mit Prozesswasser, sondern, gerade bei der Meerwasserentsalzung, auch mit Mikroorganismen in Kontakt.
Klassische Wärmeübertrager bestehen aus Stahl. Nach einer Betriebszeit von mehr als 2 Jahren ist das Material starkem Biofouling ausgesetzt. Durch die Besiedlung mit Mikroorganismen und die Bildung der gelartigen Biofilmmatrix verlieren Wärmeübertrager ihre Effizienz und erzeugen zusätzliche Kosten. Die Reinigung eines Wärmeübertragers ist üblicherweise aufwendig. Dafür wird der Wärmeübertrager, nach Außerbetriebnahme, komplett demontiert.
Mogha et al. 2014 stellen in ihrer Studie die These auf, dass die Initialbesiedlung von Materialien durch veränderte Oberflächenparameter verlängert wird. Dies verzögert die Entstehung von Biofouling und minimiert den Einsatz von Desinfektionsmitteln und green chemicals stark.
Kunststofffolien als alternativer Werkstoff für den Einsatz im wärmeübertragenden Element haben durch ihre niedrigen Produktionskosten, leichte Verfügbarkeit und höhere Korrosionsbeständigkeit als Stahl das Potential, die Kosten für Stilllegung, Reinigung und Effizienzverlust zu reduzieren. Dabei sollen die dünnen Folien komplett ausgetauscht werden, wenn der Wirkungsgrad abnimmt. Schwankenden Stahlpreisen und langen Stillstandszeiten könnte ausgewichen werden. Zur zielgerichteten Untersuchung der mikrobiologischen und verfahrenstechnischen Herausforderungen des Projekts besteht eine Kooperation zwischen dem Lehrstuhl für Thermische Verfahrenstechnik (TU Kaiserslautern) und der AG Mikrobiologie (Universität Koblenz-Landau).
Ziel dieser Arbeit ist die Konstruktion und Herstellung eines Reaktors zur Exposition der Kunststofffolien nach realem Vorbild, die Erstellung eines Untersuchungsdesigns und die experimentelle Untersuchung verschiedener Kunststofffolien auf Biofouling im Vergleich zu austenitischen Stahlfolien.
Die Hauptaufgabe dieser Arbeit war der Entwurf und die Konstruktion eines Reaktors, dessen Prozessparameter vergleichbar mit realen Wärmeübertragungsanlagen und kostengünstiger als kommerzielle Systeme (~1000$) sind. Für eine positive Zielerreichung wurden folgende Kriterien umgesetzt: Vergleichbare Prozessparameter zu realen Anlagen bereitstellen, kostengünstige, schnelle Konstruktion und serienreife Produktion ermöglichen, schnelle Online-in-situ Mikroskopie sowie Online-3D-Konfokale-Ramanspektroskopie ermöglichen, reproduzierbare Ergebnisse von Zellzahl- und Biomassebestimmung erzeugen und eine möglichst große Anzahl an Untersuchungs-parallelen bereitstellen.
Da die Bestimmung von Biomasse und Zellzahl ein Standardwerkzeug zur Bestimmung von Biofouling darstellt, bilden epifluorenszenzmikroskopische und gravimetrische Verfahren die Grundlage dieser Arbeit. Die Unterschiede in Zellzahl und Biomasse zwischen Oberflächenmodifikation und Werkstoff werden quantitativ dargestellt und ausgewertet.
Um die reale biologische Relevanz der Daten herauszustellen, wurde als Modellorganismus das Bakterium Escherichia coli K12 sowie als natürliches Inokulum Flusswasser aus dem Rhein untersucht. Die damit erzeugten Daten zum Biofouling durch Umweltmedien unbekannter mikrobieller Zusammensetzung und einem Laboransatz mit definierter biologischer Zusammensetzung sind für die Beschreibung der technischen Relevanz wesentlich.
Die materialwissenschaftlichen Parameter Oberflächenenergie (DIN 55660) und Oberflächenrauigkeit (DIN EN ISO 4287) sind der erste Kontaktpunkt zwischen Materialoberfläche und Mikroorganismus. Deren Bestimmung und Korrelation mit der Biomasse und der bakteriellen Zellzahl dient als basale Verknüpfung zwischen dem Biofoulingverhalten als biologisch induziertem Prozess und den Materialeigenschaften. Darauf basierend können zukünftig definierte Materialeigenschaften zur Zielerreichung festgelegt werden.
Der in dieser Arbeit exemplarisch gezeigte Einsatz der Raman-Spektroskopie als neuartiger "cutting-edge" Methode gibt einen Ausblick auf zukünftige Untersuchungsmöglichkeiten zur routinemäßigen Erfassung des Biofouling-Verhaltens neuer, funktional optimierter Materialien.
Die Mitralklappe ist eine der vier Herzklappen des Menschen und in der linken Herzkammer zu finden. Ihre Funktion ist es, den Blutfluss vom linken Atrium zum linken Ventrikel zu regeln. Pathologien können zu eingeschränker Funktionalität der Klappe führen, sodass Blut zurück ins Atrium fließen kann. Patienten, die von einer Fehlfunktion betroffen sind, leiden möglicherweise an Erschöpfung und Schmerzen in der Brust. Die Funktionalität kann chirurgisch wiederhergestellt werden, was meist ein langer und anstrengender Eingriff ist. Eine gründliche Planung ist daher nötig, um eine sichere und effektive Operation zu garantieren. Dies kann durch prä-operative Segmentierungen der Mitralklappe unterstützt werden. Eine post-operative Analyse kann den Erfolg eines Eingriffs feststellen. Diese Arbeit wird bestehende und neue Ideen zu einem neuen Ansatz kombinieren, der zur (semi-)automatischen Erstellung solcher Mitralmodelle dienen kann. Der manuelle Anteil garantiert ein Modell hoher Qualität, während der automatische Teil dazu beiträgt, wertvolle Arbeitszeit zu sparen.
Die Hauptbeiträge des automatischen Algorithmus sind eine ungefähre semantische Trennung der beiden Mitralsegel und ein Optimierungsprozess, der in der Lage ist, eine Koaptations-Linie und -Fläche zwischen den Segeln zu finden. Die Methode kann eine vollautomatische Segmentierung der Mitralsegel durchführen, wenn der Annulusring bereits gegeben ist. Die Zwischenschritte dieses Vorgangs werden in eine manuelle Segmentierungsmethode integriert, so dass ein Benutzer den Gesamtprozess beeinflussen kann. Die Qualität der generierten Mitralmodelle wird durch das Vergleichen mit vollständig manuell erstellten Modellen gemessen. Dies wird zeigen, dass übliche Methoden zur Bestimmung der Qualität einer Segmentierung zu allgemein gefasst sind und nicht ausreichen, um die echte Qualität eines Modells widerspiegeln zu können. Folglich führt diese Arbeit Messungen ein, die in der Lage sind, eine Segmentierung der Mitralklappe detailliert und unter Betracht anatomischer Landmarken bewerten zu können. Neben der intra-operativen Unterstützung eines Chirurgen liefert eine segmentierte Mitralklappe weitere Vorteile. Die Möglichkeit, die Anatomie einer Klappe patientenspezifisch aufzunehmen und objektiv zu bewerten, könnte als Grundlage für zukünftige medizinische Forschung in diesem Bereich dienen. Die Automatisierung erlaubt dabei das Bearbeiten großer Datenmengen mit reduzierter Abhängigkeit von Experten. Desweiteren könnten Simulationsmethoden, welche ein segmentiertes Modell als Eingabe nutzen, das Ergebnis einer Operation vorhersagen.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
Wir analysieren versionsbasierte Softwareprojekte, um den Entwicklern API- und Domänen-Wissen zuzuordnen. Genauer gesagt analysieren wir die einzelnen Commits in einem Repository in Hinblick auf die API-Nutzung. Auf dieser Grundlage können wir APIs (oder Teile davon) den Entwicklern zuordnen und dadurch auf die API-Erfahrung der Entwickler schließen. Im transitiven Schluss können wir auf Domänen-Erfahrung schließen, da jeder API eine Programmierdomäne zugewiesen wird.
Geographisches Cluster-basiertes Routing ist ein aktueller Ansatz, wenn es um das Entwicklen von effizienten Routingalgorithmen für drahtlose ad-hoc Netzwerke geht. Es gibt bereits eine Anzahl an Algorithmen, die Nachrichten nur auf Basis von Positionsinformationen durch ein drahtloses ad-hoc Netzwerk routen können. Darunter befinden sich sowohl Algorithmen, die auf das klassische Beaconing setzen, als auch Algorithmen, die beaconlos arbeiten (keine Informationen über die Umgebung werden benötigt, außer der eigenen Position und der Position des Ziels). Geographisches Routing mit Auslieferungsgarantie kann auch auf Overlay-Graphen durchgeführt werden. Bisher werden die dafür benötigten Overlay-Graphen nicht reaktiv konstruiert.
In dieser Arbeit wird ein reaktiver Algorithmus, der Beaconless Cluster Based Planarization Algorithmus (BCBP), für die Konstruktion eines planaren Overlay-Graphen vorgestellt, der die benötigte Anzahl an Nachrichten für die Konstruktion eines planaren Overlay-Graphen, und demzufolge auch Cluster-basiertes geographishes Routing, deutlich reduziert. Basierend auf einem Algorithmus für Cluster-basierte Planarisierung, konstruiert er beaconlos einen planaren Overlay-Graphen in einem unit disk graph (UDG). Ein UDG ist ein Modell für ein drahtloses Netzwerk, bei dem alle Teilnehmer den gleichen Senderadius haben.
Die Evaluierung des Algorithmus zeigt, dass er wesentlich effizienter ist als die Baecon-basierte Variante. Ein weiteres Ergebnis dieser Arbeit ist ein weiterer beaconloser Algorithmus (Beaconless LLRAP (BLLRAP)), für\r\nden zwar die Planarität, aber nicht die Konnektivität nachgewiesen werden konnte.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
Unstrukturierte Textdokumente enthalten viele Informationen, die heutzutage mit automatisierten Methoden extrahiert werden können. In dieser Arbeit wird ein Framework entwickelt, mit dessen Hilfe ein Evaluationsschema zur Evaluation von Textverarbeitungstools erarbeitet wird. Das Evaluationsschema basiert auf der Modelabhängigen Softwarevaluation und der modelabhängige Teil basiert auf dem Verarbeitungsprozess, der von dem Conceptual Analysis Process abgeleitet ist. Der Conceptual Analysis Process ist im Rahmen des GLODERS Projektes entwickelt wurden. GLODERS ist ein EU-Projekt mit dem Fokus, ein IKT Modell zu entwickeln, welches helfen soll, Extortion Racket Systems besser zu verstehen. Im Rahmes des GLODERS Projektes wurden Gerichtsdokumente eines Falles in Deutschland zu Verfügungrngestellt, die in dieser Arbeit die Datengrundlage stellen. Zum Schutz involvierter Personen sind die Daten anonymisiert. Mit dem entwickelten Schema werden dann sechs verschiedene Softwarelösungen in Bezug auf die automatisierte Verarbeitungrnvon unstrukturierten Textdokumenten evaluiert.
In der Forschung der autonomen mobilen Roboter ist besonders die Pfadplanung immer noch ein sehr aktuelles Thema.
Diese Masterabeit befasst sich mit verschiedenen Pfadplanungsalgorithmen zur Navigation solcher mobilen Systeme. Hierbei ist nicht nur eine kollisionsfreie Trajektorie von einem Punkt zu einem anderen zu ermitteln, sondern sollte diese auch noch möglichst optimal sein und alle Fahrzeug-gegebenen Einschränkungen einhalten. Besonders die autonome Fahrt in unbekannter dynamischer Umgebung stellt eine große Herausforderung dar, da hier eine geschlossene Regelung notwendig ist und dem Planer somit eine gewisse Dynamik abverlangt wird.
In dieser Arbeit werden zwei Arten von Algorithmen vorgestellt. Zum einen die Pfadplaner, welche auf dem A* aufbauen, der im eigentlichen Sinne ein Graphsuchalgorithmus ist: A*, Anytime Repairing A*, Lifelong Planning A*, D* Lite, Field D*, hybrid A*. Zum anderen die Algorithmen, welche auf dem probabilistischen Planungsalgorithmus Rapidly-exploring Random Tree basieren (RRT, RRT*, Lifelong Planning RRT*), sowie einige Erweiterungen und Heuristiken. Außerdem werden Methoden zur Kollisionsvermeidung und Pfadglättung vorgestellt. Abschließend findet eine Evaluation der verschiedenen Algorithmen statt.
Paketmanager für Quellcode wie zum Beispiel Cabal verwalten unter anderem die Abhängigkeiten zwischen Paketen. Softwareprojekte nutzen jedoch selten sämtliche Funktionalitäten, die ihre Abhängigkeiten bereitstellen. Das führt zur unnötigen Kompilation unbenutzter Code-Fragmente und zu vermeintlichen Versionskonflikten, wo gar keine Konflikte sind. In zwei Fallstudien zeigen wir, wie relevant diese zwei Probleme sind. Danach beschreiben wir, wie wir sie vermeiden können, indem wir Abhängigkeiten nicht zwischen ganzen Paketen, sondern zwischen einzelnen Code-Fragmenten feststellen.
Diese Masterarbeit behandelt den Themenbereich des interkulturellen Webdesigns im Internet. Dabei werden exemplarisch zwei an dieselbe Zielgruppe gerichtete Webseiten aus verschiedenen Ländern miteinander verglichen. Anhand von Kulturdimensionen werden kulturelle Unterschiede auf der jeweiligen Webseite aufgezeigt. Bei der Internetseiten-Analyse wird insbesondere auf die Frage eingegangen, wie ausführlich sich die jeweiligen Webseitengestalter und -betreiber Gedanken über kulturelle Unterschiede ihrer Nutzer/-innen und die Erzeugung eines entsprechenden interkulturellen Webdesigns gemacht haben. Die Analyse zeigt auf, auf welche kulturellen und insbesondere interkulturellen Aspekte der Länder bei der Webseitengestaltung Rücksicht genommen wird. Da hierbei im Rahmen der durchgeführten Untersuchung festgestellt wurde, dass die Umsetzung des interkulturellen Webdesigns nicht konsequent in der Gesamtheit der Webseite erfolgt, werden konkrete Vorschläge zu möglichen Verbesserungen aufgezeigt.
Der seit Jahren anhaltende Hype um das mobile Internet und der damit verbundenen Technologie der mobilen Anwendungsprogramme scheint nicht abzureißen. Das enorme ökonomische Potential dieses Markts treibt die Wirtschaft stetig zu neuen Ideen der Monetarisierung. Die Ursachen dieses Phänomens werden jedoch selten hinterfragt. Auch hat die wissenschaftliche Forschung auf dem Gebiet des "Mobilseins" bisher kein einheitliches Bild über die Ursachen und Wirkungsketten entwickelt. Versuche des Ableitens von Zusammenhängen durch Studien an artverwandten Medien, wie z.B. dem Computer oder dem stationären Internet, werden kontrovers diskutiert. Durch eine Verknüpfung der Forschungsströme der Mediennutzungsmotive und der Kundenbindung wird die Arbeit ein neues Untersuchungsmodell vorstellen. Anhand der Ergebnisse einer durchgeführten, quantitativen Datenerhebung wird gezeigt, dass die Motive nach Mobilität, nach Beschaffung von Informationen und nach Unterhaltung die bedeutsamsten Treiber von Kundenzufriedenheit bei mobilen Applikationen darstellen. Auch wird gezeigt, dass zwischen der Kundenzufriedenheit und den weiteren Determinanten der Kundenbindung eine signifikante Korrelation besteht.
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
Augmented Reality gewinnt heutzutage immer mehr an Bedeutung in Gebieten wie der Industrie, der Medizin oder der Tourismus-Branche. Dieser Anstieg kann durch die Möglichkeit der Erweiterung der realen Welt mit weiteren Information durch Augmented Reality erklärt werden. Somit ist dieses Verfahren zu einer Methode geworden, den Informationsfluss wesentlich zu verbessern. Um ein System zu erstellen, das die reale Welt mit Zusatzinhalten erweitert, muss die Relation zwischen System und realer Welt bekannt sein. Die gängigste Methode zum Erstellen dieser Verbindung ist optisches Tracking. Das System berechnet die Relation zur realen Welt aus Kamerabildern. Dabei wird eine Referenz in der realen Welt als Orientierung genutzt. Zumeist sind dies 2D-Marker oder 2D-Texturen, die in der Szene der realen Welt platziert werden. Dies bedeutet allerdings auch einen Eingriff in die Szene. Deshalb ist es wünschenswert, dass das System ohne eine solche Hilfe arbeitet. Ein Ansatz ohne Manipulation der Szene ist Objekt-Tracking. In diesem Ansatz kann ein beliebiges Objekt als Referenz genutzt werden. Da ein Objekt viel komplexer als ein Marker oder eine Textur ist, ist es für das System schwerer, daraus eine Relation zur realen Welt herzustellen. Deshalb reduzieren die meisten Ansätze für 3D-Objekt-Tracking das Objekt, indem nicht das gesamte als Referenz dient. Der Fokus dieser Arbeit liegt auf der Untersuchung, wie ein ganzes Objekt als Referenz genutzt werden kann, sodass das System oder die Kamera sich 360 Grad um das Objekt herum bewegen kann, ohne dass das System die Relation zur realen Welt verliert. Als Basis dient das Augmented Reality-Framework "VisionLib". Verschiedene Erweiterungen wurden im Rahmen dieser Arbeit für 360-Grad-Tracking in das System integriert und analysiert. Die unterschiedlichen Erweiterungen werden miteinander verglichen. Durch das Verbessern des Reinitialisierungsprozesses konnten die besten Ergebnisse erzielt werden. Dabei werden dem System aktuelle Bilder der Szene übergeben, mit dem das System schneller eine neue Relation zur realen Welt herstellen kann, wenn diese verloren geht.
Einfluss eines Ausrichtungswerkzeugs auf die Bedienbarkeit in unbeaufsichtigten Eyetrackingsystemen
(2015)
Eye-Tracking zeichnet die Blickbewegungen einer Person auf und ermöglicht die Vorhersage des fixierten Blickpunktes. Neben den Usability-Studien zur Bewertung der Bedienbarkeit von Anzeigen oder Internetauftritten, wird Eye Tracking auch zur Interaktion mit Computern für körperlich eingeschränkte Menschen verwendet. Die steigende Präzision und die Senkung der Materialkosten hat dazu geführt, dass Eye-Tracking als zusätzliche Eingabedimension in unterschiedlichen Anwendungen verwendet wird. Bislang wurde der Einsatz dieser Technologie durch geschultes Personal in Laboren begleitet, um die Rahmenparameter wie Position, Kalibrierung und Lichtverhältnisse optimal einzustellen.
Diese Arbeit untersucht ein Ausrichtungswerkzeug, welches dem Nutzer bei der Einnahme und Einhaltung der optimalen Sitzposition hilft, ohne die Hilfestellung eines Testleiters. Zudem wird analysiert, wie stark die Präzision durch Kopfbewegungen während der Anwendung beeinflusst wird. Die Experimente beziehen sich auf die Steuerung eines Videospiels namens 'Schau Genau' mit Verwendung eines Remote-Eye-Trackers. Es galt herauszufinden, ob die Bedienung einer Eye-Tracking-Anwendung ohne die 'Hürden', Ausrichtung und Kalibrierung möglich ist. Die Resultate zeigen, dass die Einnahme der Sitzposition korrekt durchgeführt werden kann, die Einhaltung der Sitzposition, während des Experiments jedoch verbesserungsfähig ist. Minimale Kopfbewegungen nach der Kalibrierung verursachen Einbußen in der Präzision der Fixationspunktbestimmung. Diese sind jedoch für das getestete Spiel zu gering, um das Spiel zu beeinflussen. Das Verzichten auf die eigene Kalibrierung und die Verwendung einer fremden Kalibrierung zeigt deutlich größere Abweichungen. Zusätzliche Kopfbewegungen vergrößern die Abweichungen und erschweren die Steuerung immens.
In der vorliegenden Arbeit sollen weltweit herrschende inhaltliche Ausprägungen und Schwerpunkte des Themengebiets "BMI" bzw. "GMI" mit Hilfe des Literatur-Reviews akademischer Artikel herausgearbeitet werden. Die festgestellten Beziehungen und Zusammenhänge sollen visualisiert und lokalisiert werden, um eine globale Sicht über das Thema herzustellen. Unter anderem sollen die in das finale Set aufgenommenen Artikel auf eine Korrelation zwischen BMI und Controlling bzw. Management hin überprüft werden. Als letzter Schritt soll eine Ableitung möglicher Forschungslücken unternommen werden.
Im Rahmen dieser Arbeit wird untersucht, wie sich Modellfehler auf die Positionsgenauigkeit und Handhabbarkeit beim Rangieren mit einem Fahrerassistenzsystem auswirken. Besonderer Wert wird dabei auf die Bestimmung von Fehlergrenzen gelegt. Es wird der Frage nachgegangen, wie groß der Eingangsfehler sein darf, damit die Assistenz noch hinreichende Qualitätseigenschaften hinsichtlich ihrer Präzision und Robustheit aufweist. Dazu erfolgt zunächst eine quantitative Betrachtung der Fehler anhand des kinematischen Modells. Danach wird eine qualitative Betrachtung anhand von systematischen Experimenten durchgeführt. Es wird zunächst ein Controller entwickelt, mit dem sich ein Manöver mithilfe der visuellen Informationen der Assistenz simulieren lässt.
Dann wird eine Methode vorgestellt, mit deren Hilfe man das Manöver anhand definierter Fehlergrenzen bewerten kann. Um einen großen Raum möglicher Fehlerkombinationen effizient zu durchsuchen, wird das probabilistische Verfahren des Annealed Particle Filters benutzt. Mithilfe einer Testumgebung werden schließlich systematische Experimente durchgeführt. Zur weiteren Evaluation des Assistenzsystems in einer kontrollierten Umgebung erfolgte in Zusammenarbeit mit dem Fraunhofer ITWM in Kaiserslautern die Portierung des Assistenzsystems auf die dortige Simulationsumgebung RODOS.
In der vorliegenden Arbeit wird eine prototypische Anwendung für die Logopädie entworfen, die als therapeutisches Werkzeug dient, mit dem die Artikulation deutscher Laute und der Schluckvorgang simuliert werden können. Besonderer Fokus liegt dabei auf der dreidimensionalen Visualisierung der anatomischen Modelle der oro-pharyngolaryngealen Region, die vom Logopäden interaktiv bedient werden kann. Unter Berücksichtigung therapeutischer Anforderungen wird die Frage untersucht, ob eine solche Anwendung im Therapie-Alltag eingesetzt werden und einen Mehrwert zu den üblichen Hilfsmittel der Sprechtherapie bieten kann.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
In der Literatur sind Projekte als geeignetes Mittel zur Implementierung von Strategien im Unternehmen anerkannt. Ähnlich wie bei einem Projekt handelt es sich bei der Implementierung von Strategien um zeitlich befristete Aufgaben, die in der Regel eine hohe Komplexität und Neuartigkeit aufweisen. Aufgrund dessen werden heutzutage strategische Vorhaben in Form von Projekten umgesetzt. Somit haben Projekte eine hohe Bedeutung für die strategische Entwicklung von Unternehmen. Um diese strategische Entwicklung sichern zu können, muss ein permanentes Lenkungssystem für strategische Projekte im Unternehmen implementiert werden " das Projektportfoliomanagement. Aufgrund der Komplexität und Neuartigkeit strategischer Projekte ist das Projektportfoliomanagement ein hoch komplexes Lenkungssystem mit vielen Subprozessen, die mit hohen Kosten und Zeitaufwand verbunden sind. Diese Masterarbeit beschäftigt sich mit der Optimierung des Projektportfoliomanagements anhand der Lean-Philosophie. Letztere ist eine Sammlung von Prinzipien und Methoden, die für die Verschlankung der Produktion in der Automobilindustrie entwickelt wurde. Der Einsatz der Lean-Prinzipien brachte eine derartige Steigerung der Effizienz und Effektivität bei der Automobilherstellung, dass diese Prinzipien auch in anderen Branchen und Funktionsbereichen eigesetzt werden. Nun soll das Potential der Lean-Philosophie für die Optimierung des Projektportfoliomanagements untersucht werden.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
Die vorliegende Arbeit beschäftigt sich mit den Unterstützungsmöglichkeiten des stationären Vertriebs mithilfe aktueller mobiler Anwendungen. Das Internet hat bereits dafür gesorgt, dass der Handelsmarkt dynamischer und die Bedingungen für den langjährigen stationären Vertrieb anspruchsvoller geworden sind. Online-Händler bieten aufgrund kleinerer Kostenstrukturen Preise an, bei denen der stationäre Point of Sale nur schwerlich mithalten kann. Zudem steigert sich die Akzeptanz Online-Kaufabschlüsse umzusetzen, weil sich Serviceleistungen der e-Shops verbessert haben und digitale Transaktionen für moderne Konsumenten immer attraktiver werden. Heute haben Smartphones und Tablets die Digitalisierung unserer Gesellschaft auf ein ganz neues Niveau katapultiert. Durch den Einzug des mobilen Internets haben sich die Effekte, die das stationäre Internet bereits hervorbrachte, intensiviert. Die Frage die sich dabei stellt ist: Wie sehr werden sich die Wettbewerbsbedingungen für den stationären Vertrieb verändern? Dabei verfolgt die Arbeit das Ziel aktuelle mobile Dienste, ihre Funktionalitäten und Praxisanwendungen zusammenzutragen und in geeigneter Form in den Vertriebsprozess zu integrieren. Dadurch soll die Erkenntnis gewonnen werden, ob der Einzug des mobilen Internets nicht doch als ein Vorteil für den stationären Vertrieb angesehen werden darf.
In der vorliegenden Forschungsarbeit wird ein Leitfaden zur Überprüfung von Geschäfts-modellen entwickelt. Dabei wird insbesondere die Situation junger, innovativer Unter-nehmen (Startups) berücksichtigt. Diese Unternehmen agieren unter einer hohen Unsi-cherheit oder Ungewissheit. Es ist daher kaum möglich über quantitative Daten eine so-lide Prognose für den Erfolg des Unternehmens abzugeben. Die Evaluation von innovativen Geschäftsmodellen stellt eine Forschungslücke dar.
Objekterkennung ist ein gut erforschtes Gebiet bei bildbasiertem Rechnersehenrnund eine Vielzahl an Methoden wurden entwickelt. In letzter Zeit haben sich dabei Ansätze verbreitet, die auf dem Implicit Shape Model-Konzept basieren. Dabei werden Objekte zunächst in grundlegende visuelle Bestandteile aufgetrennt, die um örtliche Informationen erweitert werden. Das so generierte Objektmodell wird dann in der Objekterkennung genutzt, um unbekannte Objekte zu erkennen. Seit dem Aufkommen von erschwinglichen Tiefenkameras wie der Microsoft Kinect wurde jedoch die Objekterkennung mittels 3D-Punktwolken von zunehmender Bedeutung. Im Rahmen des Robotersehens in Innenräumen wird ein Verfahren entwickelt, welches auf vorhandenen Ansätze aufbaut und damit die Implicit Shape Model basierte Objekterkennung für die Verarbeitung von 3D-Punktwolken erweitert.
Remote Rendering ist eine Möglichkeit aufwändige Grafik von leistungsstarker Hardware für leistungsschwächere Endgeräte bereitzustellen. Durch den Transfer der Daten über ein Netzwerk entsteht eine Verzögerung, welche die Interaktivität einschränkt. Ein Verfahren, um Befehle an eine virtuelle Kamera auf dem Endgerät direkt umzusetzen, wird 3D-Warping genannt. Das Verfahren erzeugt jedoch Bildartefakte. In dieser Arbeit werden verschiedene Ansätze für Remote Rendering Setups aufgezeigt. Zusätzlich werden die auftretenden Artefakte des Warpings und Methoden zur Verbesserung des Verfahrens beschrieben. Es werden eigene Implementationen und Verbesserungen vorgestellt und untersucht.
Aufgrund des branchenweiten Bedarfs den Konkurrenzkampf zu umgehen, entwickelten Kim und Mauborgne die Blue Ocean Strategy, um neue Märkte zu ergründen. Diese bezeichnen sie als einzigartig. Da jedoch weitere Strategien zur Ergründung neuer Märkte existieren, ist es das Ziel dieser Arbeit herauszufinden, anhand welcher Charakterisierungsmerkmale die Blue Ocean Strategy als einzigartig angesehen werden kann.
Die Strategie von Kim und Mauborgne soll daher mit Schumpeters schöpferischen Zerstörung, Ansoffs Diversifikationsstrategie, Porters Nischenstrategie und Druckers Innovationsstrategien verglichen werden. Für den Vergleich werden die Charakterisierungsmerkmale herangezogen, nach denen Kim und Mauborgne die Blue Ocean Strategy als einzigartig beurteilen. Auf Basis dieser Kriterien wird ein Metamodell entwickelt, mit dessen Hilfe die Untersuchung durchgeführt wird.
Der Vergleich zeigt, dass die Konzepte von Schumpeter, Ansoff, Porter und Drucker in einigen Kriterien der Blue Ocean Strategy ähneln. Keine der Strategien verhält sich jedoch in allen Punkten so wie das Konzept von Kim und Mauborgne. Während die Blue Ocean Strategy ein Differenzierung und Senkung der Kosten anstrebt, orientieren sich die meisten Konzepte entweder an einer Differenzierung oder an einer Kostenreduktion. Auch die Betretung des neuen Marktes wird unterschiedlich interpretiert. Während die Blue Ocean Strategy auf einen Markt abzielt, der unergründet ist und somit keinen Wettbewerb vorweist, werden bei den anderen Strategien oft bestehende Märkte als neu interpretiert, auf denen das Unternehmen bisher nicht agiert hat. Dies schließt die vorherige Existenz der Märkte jedoch nicht aus.
Auf Basis der durch den Vergleich gezogenen Erkenntnisse, kann somit die Blue Ocean Strategy als einzigartig bezeichnet werden.
Data Mining im Fußball
(2014)
Data Mining ist die Anwendung verschiedener Verfahren, um nützliches Wissen automatisch aus einer großen Menge von Daten zu extrahieren. Im Fußball werden seit der Saison 2011/2012 umfangreiche Daten der Spiele der 1. und 2. Bundesliga aufgenommen und gespeichert. Hierbei werden bis zu 2000 Ereignisse pro Spiel aufgenommen.
Es stellt sich die Frage, ob Fußballvereine mithilfe von Data Mining nützliches Wissen aus diesen umfangreichen Daten extrahieren können.
In der vorliegenden Arbeit wird Data Mining auf die Daten der 1. Fußballbundesliga angewendet, um den Wert bzw. die Wichtigkeit einzelner Fußballspieler für ihren Verein zu quantifizieren. Hierzu wird der derzeitige Stand der Forschung sowie die zur Verfügung stehenden Daten beschrieben. Im Weiteren werden die Klassifikation, die Regressionsanalyse sowie das Clustering auf die vorhandenen Daten angewendet. Hierbei wird auf Qualitätsmerkmale von Spielern, wie die Nominierung eines Spielers für die Nationalmannschaft oder die Note, welche Spieler für ihre Leistungen in Spielen erhalten eingegangen. Außerdem werden die Spielweisen der zur Verfügung stehenden Spieler betrachtet und die Möglichkeit der Vorhersage einer Saison mithilfe von Data Mining überprüft. Der Wert einzelner Spieler wird mithilfe der Regressionsanalyse sowie einer Kombination aus Cluster- und Regressionsanalyse ermittelt.
Obwohl nicht in allen Anwendungen ausreichende Ergebnisse erzielt werden können zeigt sich, dass Data Mining sinnvolle Anwendungsmöglichkeiten im Fußball bietet. Der Wert einzelner Spieler kann mithilfe der zwei Ansätze gemessen werden und bietet eine einfache Visualisierung der Wichtigkeit eines Spielers für seinen Verein.
Zur Planung von Veranstaltungen werden Menschenmengen-Simulationen eingesetzt, die die Evakuierung der Menschenmenge simulieren, um eventuelle Gefahren einschätzen und vermeiden zu können. Diese Menschenmengen-Simulationen analysieren zum größten Teil nur den Bewegungsfluss einer Menschenmenge. Oft werden physische und psychische Faktoren in diesen Simulationen nicht bedacht und verhindern dadurch, Kollisionen zwischen Agenten abzubilden wie deren Umfallen und das sich verändernde Verhalten auf äußere Einflüsse.
Aus diesem Grund wird in der vorliegenden Arbeit das Ziel verfolgt, das psychische Verhalten und die physischen Krafteinwirkungen der Menschenmenge zu untersuchen. Dazu wurde eine echtzeitfähige Menschenmengen-Simulation entwickelt, die zum einen Verfahren für Videospiele und zum anderen eine Verhaltens-KI für die Agenten der Simulation beinhaltet. Mit Rigid Bodies aus einer Physik-Engine wurde die physikalische Repräsentation der Agenten realisiert, um physische Interaktionen der Agenten untereinander und mit der Umwelt sowie die Fortbewegung der Agenten physikalisch plausibel umzusetzen. Zur Fortbewegung der Agenten wurde zusätzlich das Verfahren von Navigationmeshes und ein geeigneter Algorithmus zur Kollisionsvermeidung realisiert.
Mit der Entwicklung einer Verhaltens-KI wurde ein physisch-psychischer Zustand entworfen, der sich aus einem Stressniveau als psychischer und aus einem Gesundheitswert als physischer Zustand zusammensetzt. Die entwickelte Simulation kann physische Faktoren wie das Gedränge von Agenten oder das Erdrücken eines Agenten sowie die Interaktion der Agenten mit ihrer Umwelt darstellen und psychische Faktoren wie Stress visuell abbilden.
Anhand einer Evaluation von durchgeführten Testszenarien der Simulation wurde untersucht, ob eine Kombination von physischen und psychischen Faktoren in einer Simulation erfolgreich umsetzbar ist und einen Aufschluss über das Verhalten der Agenten in gefährlichen oder stressbehafteten Situationen gibt. Zusätzlich wurde der Nutzen der Komplexität der physikalischen Repräsentation analysiert.
Ziel dieser Ausarbeitung ist es, das Wippe-Experiment gemäß dem Aufbau innerhalb der AG Echtzeitsysteme unter Leitung von Professor Dr. Dieter Zöbel mithilfe eines LEGO Mindstorms NXT Education-Bausatzes funktionsfähig nachzubauen und das Vorgehen zu dokumentieren. Der dabei entstehende Programmcode soll didaktisch aufbereitet und eine Bauanleitung zur Verfügung gestellt werden. Dies soll gewährleisten, dass Schülerinnen und Schüler auch ohne direkten Zugang zu einer Hochschule oder ähnlichem Institut den Versuchsaufbau Wippe möglichst unkompliziert im Klassenraum erleben können.
Im Rahmen des "Design Thinking"-Prozesses kommen unterschiedliche Varianten kreativitätsfördernder Techniken zum Einsatz. Aufgrund der zunehmenden Globalisierung ergeben sich immer häufiger Kollaborationen, bei denen sich die jeweiligen Projektteilnehmer an verteilten Standorten befinden. Somit erweist sich die Digitalisierung des Design-Prozesses als durchaus erstrebenswert. Ziel der hier vorliegenden Untersuchung ist daher die Erstellung eines Bewertungsschemas, welches die Eignung digitaler Kreativitätstechniken in Bezug auf das "Entrepreneurial Design Thinking" misst. Des Weiteren soll geprüft werden, inwiefern sich der Einsatz von e-Learning-Systemen in Kombination mit der Verwendung digitaler Kreativitätstechniken eignet. Diese Prüfung soll am Beispiel der e-Learning Software "WebCT" konkretisiert werden. Hieraus ergibt sich die folgende Fragestellung: Welche digitalen Kreativitätstechniken eignen sich für die Anwendung im Bereich des "Entrepreneurial Design Thinkings" unter Einsatz der e-Learning Plattform "WebCT"? Zunächst wird eine Literaturanalyse bezüglich des "Entrepreneurial Design Thinkings", der klassische und digitale Kreativitätstechniken sowie des Arbeitens in Gruppen, was auch das Content Management, e-Learning-Systeme und die Plattform "WebCT" beinhaltet, durchgeführt. Im Anschluss daran wird eine qualitative Untersuchung durchgeführt. Auf Basis bereits bestehender Literatur, soll ein Bewertungsschema erstellt werden, welches misst, welche der behandelten digitalen Kreativitätstechniken für den Einsatz im "Entrepreneurial Design Thinking" am besten geeignet ist. Darauf aufbauend erfolgt die Verknüpfung des digitalisierten "Design Thinking"-Prozesses mit der e-Learning Plattform "WebCT". Abschließend wird diskutiert, in wie fern diese Zusammenführung als sinnvoll erachtet werden kann.
ERP market analysis
(2013)
Der aktuelle ERP Markt wird dominiert von den fünf größten Anbietern SAP, Oracle, Microsoft, Infor und Sage. Da der Markt und die angebotenen Lösungen vielfältig sind, bedarf es einer fundierten Analyse der Systeme. Die Arbeit beleuchtet dabei anhand ausgesuchter Literatur und Kennzahlen der verschiedenen Unternehmen die theoretische Seite der angebotenen Lösungen der fünf großen ERP Anbieter. Daneben wird die Nutzung der Systeme in der Praxis anhand der Befragung von sechs Anwendern analysiert und die Systeme miteinander verglichen.
Ziel der Arbeit ist es, dass die Forschungsfragen beantwortet werden und dass es bezogen auf die Systeme dem Leser der Arbeit ersichtlich wird, welches ERP System für welche Unternehmensbranche und Unternehmensgröße am besten geeignet ist.
Des Weiteren gibt die Arbeit Aufschluss darüber, welche Trends für ERP Systeme für die Zukunft zu erwarten sind und welche Herausforderungen sich dadurch für die Unternehmen stellen.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
Durch die Verbreitung von Smartphones und der damit einhergehenden, erhöhten Aufmerksamkeit für Augmented Reality Anwendungen, ist es spannend einen wirklichen Mehrwert durch eine solche Anwendung zu generieren. Es ist wichtig, die Grundfunktionen eines Computers mit den möglichen Vorteilen einer AR-Anwendung zu einer hilfreichen App zu verbinden. Es muss die Rechenkraft eines Computers mit hilfreichen, virtuellen Informationen in der realen Welt sinnvoll angereichert werden. Wichtig ist zudem, dass eine einfache Bedienung und schneller Umgang mit einer solchen Anwendung gewährleistet sein.
Ein Poker-Assistent kann all diese Stärken des Computers und einer AR-Anwendung einsetzen. Die schwierige Wahrscheinlichkeitsberechnung von Gewinnchancen sowie die schnelle automatisierte Kartenerfassung sollen hierbei im Vordergrund stehen.
AR-Anwendungen auf Smartphones bilden den Grundstein für ein zukünftiges AR-bestimmtes Leben. In diesem Kontext soll eine der Kernfragen dieser Masterarbeit die Frage nach dem wirklichen Mehrwert für Nutzer dieser App im Vergleich zu nicht unterstützten Spielern sein. Wobei auch geklärt werden soll, ob dieses Anwendungsbeispiel eine sinnvolle AR-Unterstützung benötigt und wie, im Hinblick auf die Zukunft und zukünftige Technologien, eine sinnvolle AR-Unterstützung aussehen sollte.
Wir präsentieren die konzeptuellen und technologischen Grundlagen einer verteilten natürlich sprachlichen Suchmaschine, die einen graph-basierten Ansatz zum Parsen einer Anfrage verwendet. Das Parsing-Modell, das in dieser Arbeit entwickelt wird, generiert eine semantische Repräsentation einer natürlich sprachlichen Anfrage in einem 3-stufigen, übergangsbasierten Verfahren, das auf probabilistischen Patterns basiert. Die semantische Repräsentation einer natürlich sprachlichen Anfrage wird in Form eines Graphen dargestellt, der Entitäten als Knoten und deren Relationen als Kanten repräsentiert. Die präsentierte Systemarchitektur stellt das Konzept einer natürlich sprachlichen Suchmaschine vor, die sowohl in Bezug auf die einbezogenen Vokabulare, die zum Parsen der Syntax und der Semantik einer eingegebenen Anfrage verwendet werden, als auch in Bezug auf die Wissensquellen, die zur Gewinnung von Suchergebnissen konsultiert werden, unabhängig ist. Diese Funktionalität wird durch die Modularisierung der Systemkomponenten erreicht, die externe Daten durch flexible Module anspricht, welche zur Laufzeit modifiziert werden können. Wir evaluieren die Leistung des Systems indem wir die Genauigkeit des syntaktischen Parsers, die Präzision der gewonnenen Suchergebnisse sowie die Geschwindigkeit des Prototyps testen.
In dieser Masterarbeit geht es im Wesentlichen um die Umsetzung eines Pfadplanungsverfahrens basierend auf schnell wachsenden Suchbäumen für allgemeine Gliederfahrzeuge. Es handelt sich dabei um ein probabilistisches Verfahren, das sich durch eine schnelle und gleichmäßige Exploration auszeichnet. Das Verfahren ist etabliert, wurde bisher allerdings nur auf Fahrzeuge mit einfacher Kinematik angewendet. Die im Rahmen dieser Masterarbeit betrachteten Gliederfahrzeuge stellen mit ihrer eingeschränkten Steuerbarkeit eine besondere Herausforderung dar. Im Fokus dieser Masterarbeit steht daher die Anwendung des genannten Verfahrens auf allgemeine Gliederfahrzeuge. Dabei werden systematische Zusammenhänge zwischen den Fahrzeugeigenschaften von Gliederfahrzeugen und den Möglichkeiten zur Realisierung und Anwendung des Verfahrens untersucht.
Diese Arbeit befasst sich mit der Entwicklung und Evaluierung eines Konzepts zur neuartigen Interaktion mit ubiquitären, also allgegenwärtigen, User-Interfaces. Für die Durchführung der Evaluierung dieses Interaktionskonzeptes wurde darüber hinaus eine prototypische Umsetzung einer Augmented Reality-Anwendung mit Hilfe einer bestehenden Head-Mounted-Display-Lösung und einem Android-Smartphone realisiert.
Zudem wurde im Rahmen dieser Arbeit ein konkreter Anwendungsfall für diesen Prototyp " das Navigieren durch einen Stadtteil mittels elektronischer Übersichtskarte " entwickelt und als lauffähige Anwendung implementiert, um die Qualität des Interaktionskonzeptes evaluieren zu können. Auf Grundlage dessen wurden sodann wesentliche Forschungserkenntnisse gewonnen.
Im Rahmen dieser Masterarbeit wird ein umfassender Überblick über die Vielfalt der Sicherheitsmodelle gegeben, indem ausgewählte Sicherheitsmodelle beschrieben, klassifiziert und miteinander verglichen werden.
Sicherheitsmodelle beschreiben in einer abstrakten Weise die sicherheitsrelevanten
Komponenten und Zusammenhänge eines Systems. Mit den Sicherheitsmodellen können komplexe Sachverhalte veranschaulicht und analysiert werden.
Da Sicherheitsmodelle unterschiedliche Sicherheitsaspekte behandeln, beschäftigt
sich diese Arbeit mit der Ausarbeitung eines Klassifizierungsschemas, welches
die strukturelle und konzeptuelle Besonderheiten der Modelle in Bezug auf die zugrundeliegenden Sicherheitsaspekte beschreibt. Im Rahmen des Klassifizierungsschemas werden die drei grundlegenden Modellklassen gebildet: Zugriffskontrollmodelle, Informationsflussmodelle und Transaktionsmodelle.
Sicherheitsmodelle werden in einem direkten und indirekten Vergleich gegenüber gestellt. Im letzten Fall werden sie einer oder mehrerer Modellklassen des Klassifizierungsschemas zugeordnet. Diese Klassifizierung erlaubt, Aussagen über die betrachteten Sicherheitsaspekte und die strukturellen bzw. konzeptuellen Besonderheiten eines Sicherheitsmodells in Bezug auf die anderen Sicherheitsmodelle
zu machen.
Beim direkten Vergleich werden anhand der ausgewählten Kriterien die Eigenschaften
und Aspekte der Sicherheitsmodelle orthogonal zu den Modellklassen
betrachtet.