Institut für Wirtschafts- und Verwaltungsinformatik
Refine
Year of publication
Document Type
- Part of Periodical (35)
- Bachelor Thesis (32)
- Diploma Thesis (27)
- Master's Thesis (27)
- Doctoral Thesis (13)
- Study Thesis (12)
- Book (1)
Keywords
- Internet of Things (4)
- Logistik (4)
- computer clusters (4)
- Datenaustausch (3)
- Datenschutz (3)
- E-Partizipation (3)
- Evaluation (3)
- Instant Messaging (3)
- parallel algorithms (3)
- Beschaffung (2)
Institute
Zufriedenheitsstudie der Studierenden des FB 4 an der Universität Koblenz-Landau am Campus Koblenz
(2009)
Nachdem der Studiengang Informationsmanagement im Jahr 2000 am Campus Koblenz der Universität Koblenz-Landau als erster deutscher Studiengang im Bachelorsystem akkreditiert wurde, haben sich im Laufe der Zeit einige Dinge verändert. Dies führte zu einer Änderung der Prüfungsordnung im Jahre 2006. Hieraus ergaben sich einige Umstellungen im Studiengang Informationsmanagement. Da im Zuge des Bolognaprozesses auch die Studiengänge Informatik und Computervisualistik in das neue System gewandelt wurden, stellten sich auch hier die Studienbedingungen um. In den letzten Jahren ist es vermehrt dazu gekommen, dass die Studierenden des Fachbereichs Informatik (im weiteren auch Fachbereich 4, oder FB 4) unzufrieden mit der augenblicklichen Situation am Campus Koblenz sind. Diese Unzufriedenheit scheint auf unterschiedlichen Ursachen zu beruhen. Da eine Unzufriedenheit innerhalb der Studierenden ein negatives Bild darstellt, ist es für eine Universität wünschenswert, wenn die Lehrenden eines Fachbereichs wissen, welche Einschätzungen die Studierenden hinsichtlich Ihres Studienfachs haben. Daher ist es von hoher Bedeutung, im Sinne der Qualitätssicherung, die Meinungen der Studenten über das Lehrkonzept sowie die einzelnen Studienfächer des Fachbereichs 4 am Campus Koblenz der Universität Koblenz-Landau zu evaluieren. Durch die Befragung der Studierenden kann somit eine Ergänzung zu der seit einiger Zeit durchgeführten Lehrveranstaltungsevaluation gebildet werden. Ziel dieser Arbeit ist es, das Meinungsbild im Fachbereich Informatik an der Universität Koblenz-Landau am Campus Koblenz zu ergründen. Anhand der Ergebnisse der Evaluation, welche im Wesentlichen von den Erfahrungen und Meinungen der Studierenden abhängig sind, können weiterführende Kenntnisse zur Verbesserung und Sicherung der Qualität von Studium und Lehre erlangt werden. Auf diese Weise erhält der Fachbereich Informatik den Stand des wahrgenommenen Profils nach außen und kann somit überprüfen, ob dieses mit den selbstgesetzten Zielvorstellungen übereinstimmt. Die Evaluation soll außerdem dazu beitragen, die eigenen Stärken und Schwächen hinsichtlich der Lehrveranstaltungen und Studiengänge zu erarbeiten sowie den Lehr- und Studien-betrieb transparenter zu gestalten. Durch diese Ergebnisse kann der Studienablauf optimiert und eine Basis für die Weiterentwicklung der Lehre geschaffen werden. Ebenfalls gilt es eventuelle Unterschiede in der Wahrnehmung der Studiensituation einzelner Studiengänge zu ermitteln, da durch verschiedene Ausrichtungen der Studierenden andere Meinungen hinsichtlich des Lehrbetriebs entstehen können. Des Weiteren gilt es dieses Meinungsbild auch innerhalb der Studiengänge zu differenzieren, damit die verschiedenen Abschlüsse, für welche die Studierenden eingeschrieben sind, herausgefiltert werden können. Ein weiterer Punkt den eine solche Evaluation mit sich führt, ist die Chance, die eigenen Kontrollmechanismen zu überprüfen und zu verbessern, damit Strategien entwickelt werden können, um die oben erwähnte Qualität der Lehre zu sichern. Somit soll neben der Darstellung der aktuellen Situation auch eine Handlungsempfehlung für den Fachbereich 4 erarbeitet werden. Die entstandene Umfrage soll so ausgelegt werden, damit weitere Befragungen im Sinne einer Panelforschung in Folgesemestern durchgeführt werden können. Hiermit soll festgestellt werden, ob sich im Laufe der Zeit Veränderungen zwischen den einzelnen Umfragen ergeben haben.
XDOMEA-Fachkonzept
(2006)
Die AG "IT-gestützte Vorgangsbearbeitung" des Kooperationsausschusses Automatisierte Datenverarbeitung (koopA ADV) hat zur Verwirklichung der Interoperabilität in der öffentlichen Verwaltung den Datenaustauschstandard XDOMEA entwickelt. Das vorliegende Dokument beschreibt das Fachkonzept zur XML-Schema-Spezifikation. Es wendet sich vorrangig an verantwortliche Organisatoren im IT-Bereich und an potentielle Anwender von XDOMEA. In diesem Dokument werden Hintergründe, Einsatzmöglichkeiten und Informationen zum Einsatzgebiet von XDOMEA erläutert, die Vorteile des Standards diskutiert und Erweiterungsmöglichkeiten vorgestellt. Weiters werden Beteiligungs- und Protokollinformationen spezifiziert und detailliert. Zu diesem Zweck werden verschiedene Szenarien erarbeitet, die anhand von Prozessmodellen die praktische Anwendung des Standards veranschaulichen. Gleichzeitig werden die Möglichkeiten fachspezifischer Erweiterungen im Standard verdeutlicht und Grenzen der Anwendung aufgezeigt.
In this thesis a web service (SOA) is designed and implemented that can detect a watermark in an audio file by remote control. The thesis forms part of the URM (Usage Rights Management) project, which is developed at the University of Koblenz-Landau. The project deals with a concept of a licencing process that keeps users informed about their rights on acquired digital content. Taking WAV files as an example, the thesis represents a rudimentary way of extracting information from a digital medium.
We are entering the 26th year from the time the World Wide Web (WWW) became reality. Since the birth of the WWW in 1990, the Internet and therewith websites have changed the way businesses compete, shifting products, services and even entire markets.
Therewith, gathering and analysing visitor traffic on websites can provide crucial information to un- derstand customer behavior and numerous other aspects.
Web Analytics (WA) tools offer a quantity of diverse functionality, which calls for complex decision- making in information management. Website operators implement Web Analytic tools such as Google Analytics to analyse their website for the purpose of identifying web usage to optimise website design and management. The gathered data leads to emergent knowledge, which provides new marketing opportunities and can be used to improve business processes and understand customer behavior to increase profit. Moreover, Web Analytics plays a significant role to measure performance and has therefore become an important component in web-based environments to make business decisions.
However, many small and medium –sized enterprises try to keep up with the web business competi- tion, but do not have the equivalent resources in manpower and knowledge to stand the pace, there- fore some even resign entirely on Web Analytics.
This research project aims to develop a Web Analytics framework to assist small and medium-sized enterprises in making better use of Web Analytics. By identifying business requirements of SMEs and connecting them to the functionality of Google Analytics, a Web Analytics framework with attending guidelines is developed, which guides SMEs on how to proceed in using Google Analytics to achieve actionable outcomes.
Virtual Goods + ODRL 2012
(2012)
This is the 10th international workshop for technical, economic, and legal aspects of business models for virtual goods incorporating the 8th ODRL community group meeting. This year we did not call for completed research results, but we invited PhD students to present and discuss their ongoing research work. In the traditional international group of virtual goods and ODRL researchers we discussed PhD research from Belgium, Brazil, and Germany. The topics focused on research questions about rights management in the Internet and e-business stimulation. In the center of rights management stands the conception of a formal policy expression that can be used for human readable policy transparency, as well as for machine readable support of policy conformant systems behavior up to automatic policy enforcement. ODRL has proven to be an ideal basis for policy expressions, not only for digital copy rights, but also for the more general "Policy Awareness in the World of Virtual Goods". In this sense, policies support the communication of virtual goods, and they are a virtualization of rules-governed behavior themselves.
This thesis connects the endeavors of the winemaker’s intention in perfect and profitable wine making with an innovative technological application to use Internet of Things. Thereby the winemaker’s work may be supported and enriched – and enables until recent years still unthinkable optimization of managing and planning of his business, including close state control of different areas of his vineyard, and more than that, not ending up with the single grapevine. It is exemplarily shown in this thesis how to measure, transmit, store and make data available, exemplarily demonstrated with “live” temperature, air and soil humidity values from the vineyard. A modular architecture was designed for the system presented, which allows the use of current sensors, and similar low-voltage sensors, which will be developed in the future.
By using IoT devices in the vineyard, the winemaker advances to a new quality of precision of forecasted data, starting from live data of his vineyard. Of more and more importance, the winemaker can start immediate action, when unforeseen heavy weather conditions occur. Immediate use of current data enabled by a Cloud Infrastructure. For this system, an open service infrastructure is employed. In contrast to other published commercial approaches, the described solution is based on open source.
As an alone-standing part of this work, a physical prototype for measuring relevant parameters in the vineyard was de-novo designed and developed until fulfilling the set of specifications. The outlined features and requirements for a functioning data collection and autonomously transmitting device was developed, described, and the fulfilment by the prototype device were demonstrated. Through literature research and supportive orientationally live interviews of winemakers, the theory and the practical application were synchronized and qualified.
For the development of the prototype the general principles of development of an electronic device were followed, in particular the Design Science Research development rules, and principles of Quality Function Deployment. As a characteristic of the prototype, some principles like re-use of approved construction and material price of the building blocks of the device were taken into consideration as well (e.g. housing; Arduino; PCB). Parts reduction principles, decomplexation and simplified assembly, testing and field service were integrated to the development process by the modular design of the functional vineyard device components, e.g. with partial reference to innovative electrical cabinet construction system Modular-3.
The software architectural concept is based on a three-layer architecture inclusive the TTN infrastructure. The front end is realized as a rich web client, using a WordPress plugin. WordPress was chosen due to the wide adoption through the whole internet, enabling fast and easy user familiarization. Relevant quality issues have been tested and discussed in the view of exemplary functionality, extensibility, requirements fulfilment, as usability and durability of the device and the software.
The prototype was characterized and tested with success in the laboratory and in field exposition under different conditions, in order to allow a measurement and analysis of the fulfilment of all requirements by the selected and realized electronic construction and layout.
The solution presented may serve as a basis for future development and application in this special showcase and within similar technologies. A prognosis of future work and applications concludes this work.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
This work compiles the comparison of different medical drug-dispensers. A drug-dispenser is a device which allows it from a larger amount of drugs to take a smaller one. To perform this comparison 15 requirements for the dispensers were found. The requirements "organization", "remind" and "ergonomics" are assigned to the taking-easement. "Compliance", "adaptability", "selectivity", "persistence", "functionality", "correctness" and "specificity / sensitivity" belong to the compliance, which is therapy loyalty. With it this category makes most demands. The category storage collects "hygiene", "pharmaceutical forms" and "robustness". Finally, the requirements "clarity" and "data protection" were assigned to other requirements. After this, different dispenser-concepts were first introduced and analyzed on the fulfillment of the requirements. The following concepts were analyzed: pillbox, oneweek-dispenser, Blister, tubular bag, MEMS, OtCM, electronic Dispenser, smartphone application. According to the analysis the dispensers could be compared with each other. It turned out that all concepts show deficits. Hence the author developed an own concept which fulfils all requirements except for two from well to very well. It represents the mightiest concept.
The paper is devoted to solving the problem of assessing the quality of the medical electronic service. A variety of dimensions and factors of quality, methods and models applied in different scopes of activity for assessing quality of service is researched. The basic aspects, requirements and peculiarities of implementing medical electronic services are investigated. The results of the analysis and the set of information models describing the processes of assessing quality of the electronic service "Booking an appointment with a physician" and developed for this paper allowed us to describe the methodology and to state the problem of the assessment of quality of this service.
This research examines information audit methodologies and information capturing methods for enterprise social software which are an elementary part of the audit process. Information auditing is lacking of a standardized definition and methodology because the scope of the audit process is diversified and dependent on the organization undertaking the audit. The benefits of information auditing and potential challenges of Enterprise 2.0 the audit can overcome are comprehensive and provide a major incentive for managers to conduct an audit. Information asset registers as a starting point for information auditing are not specifically focusing on social software assets. Therefore this research pro-ject combines asset registers from different areas to create a new register suitable for the requirements of Enterprise 2.0. The necssary adaptations caused by the new character of the assets are minor. The case study applying the asset register for the first time however reveals several problematic areas for information auditors completing the register. Rounding up the thesis a template is developed for setting up new work spaces on enterprise social software systems with appropriate metadata taking into account the meaningful metadata discovered in the asset register.
Mit dieser Arbeit werden die folgenden Ziele verfolgt: Eine repräsentative Auswahl und Sammlung von Beispielen für Mobile Ticketing Systeme (insbesondere aus dem deutschsprachigen Raum) zu recherchieren, die sich im praktischen Einsatz befinden. Eine Zusammenstellung sinnvoller Kategorien (Charakteristika) zu erarbeiten, anhand derer sich Mobile Ticketing Systeme unterscheiden oder strukturieren lassen. Eine Gegenüberstellung der Beispiele und Kategorien zu erstellen, um zu untersuchen, welche typischen Klassen bei Mobile Ticketing Systemen identifiziert werden können.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Regarding the rising amount of legal regulations, businesses should get the opportunity to use software to fulfill their Compliance Management with the usage of compliance pattern. These patterns are used to represent substantive and structural parts of the processes. This means companies can increase their efficiency and react to new regulations quickly to avoid possible violation which can lead to monetary losses or legal consequences. In the literature are many approaches that deal with compliance pattern but currently there does not exist any list with necessary compliance pattern that companies should face at (Delfmann and Hübers, 2015). The following bachelor thesis classifies 80 research contributions regarding their different approaches of compliance pattern. For that a systematic literature review was executed. As a result, the author developed a graphical classification context that provides an overview of connections between different compliance approaches. Furthermore, an appendix with 32 compliance patterns of the analyzed papers was developed that contains real-world patterns with the classification of the previous sections.
The status of Business Process Management (BPM) recommender systems is not quite clear as research states. The use of recommenders familiarized itself with the world during the rise of technological evolution in the past decade.Ever since then, several BPM recommender systems came about. However, not a lot of research is conducted in this field. It is not well known to what broad are the technologies used and how are they used. Moreover, this master’s thesis aims at surveying the BPM recommender systems existing. Building on this, the recommendations come in different shapes. They can be positionbased where an element is to be placed at an element’s front, back or to autocomplete a missing link. On the other hand, Recommendations can be textual, to fill the labels of the elements. Furthermore, the literature review for BPM recommender systems took place under the guides of a literature review framework. The framework suggests 5stages of consecutive stages for this sake. The first stage is defining a scope for the research. Secondly, conceptualizing the topic by choosing key terms for literature research. After that in the third stage, comes the research stage.As for the fourth stage, it suggests choosing analysis features over which the literature is to be synthesized and compared. Finally, it recommends defining the research agenda to describe the reason for the literature review. By invoking the mentioned methodology, this master’s thesis surveyed 18 BPM recommender systems. It was found as a result of the survey that there
are not many different technologies for implementing the recommenders. It was also found that the majority of the recommenders suggest nodes that are yet to come in the model, which is called forward recommending. Also, one of the results of the survey indicated the scarce use of textual recommendations to BPM labels. Finally, 18 recommenders are considered less than excepted for a developing field therefore as a result, the survey found a shortage in the number of BPM recommender systems. The results indicate several shortages in several aspects in the field of BPM recommender systems. On this basis, this master’s thesis recommends the future work on it the results.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
In Zeiten, in denen ein Notebook so selbstverständlich wie ein Taschenrechner ist und als Arbeitsgerät, oder zur Kommunikation bzw. Recherche im Internet genutzt wird, ist es für Gäste von enormem Vorteil, schnell und unkompliziert einen Zugriff auf die vorhandene Netzinfrastruktur einer gastgebenden Firma zu erlangen. Dies erspart einerseits Arbeitsaufwand von Seiten der Administratoren, bzw. wenn es sich um eine kleinere Firma handelt, die nicht über eine eigene IT-Abteilung verfügt, ermöglicht es, ohne die Dienste von Dritten in Anspruch zu nehmen, einen zeitlich begrenzten Zugang für Gäste. Andererseits lassen sich Kosten für die sonst nötigen Arbeitsschritte einsparen, und die Administratoren können sich ihren eigentlichen Aufgaben widmen. Und das Ganze unabhängig von Arbeits- und Urlaubszeiten, frei von lästigen Formalitäten und ohne Vorlaufzeit, um nur einige der Vorteile gegenüber einer manuellen Freischaltung zu nennen. Ein weiterer wichtiger Punkt ist, dabei die Sicherheit der IT-Netzinfrastruktur nicht zu beeinträchtigen. Ein spontaner Zugang sollte zeitlich begrenzt (z.B. für die Dauer einer Veranstaltung) und personenbezogen sein. Genau diese Funktionalität ermöglicht das in diesem Projekt entwickelte SpoGA-System.
Computers fundamentally changed the methods used by social scientists during the past decades. It is no exaggeration to state that the wide use and growing user-friendliness of computers and statistical analysis systems helped empirical social research as a subdiscipline to become mainstream. This made a new subdiscipline necessary which is mainly working on adapting and applying computer science methods for social research: social science informatics. This book originated from lecture courses given by the authors from the mid-1980s and developed for computer science students with a minor in social science. Unlike many other introductions to univariate and multivariate data analysis, this book is addressed to advanced scholars and students who apply "classical" statistical methods and who want to get an overview of the mathematical foundations of the methods they apply and who want to avoid the pitfalls of cookbook-like introduction when they interpret their results. The electronic document is a slightly revised version of the printed version of 1994 which has been out of stock for many years.
Enterprise Collaboration Systems (ECS) have become substantial for computer-mediated communication and collaboration among employees in organisations. As ECS combine features from social media and traditional groupware, a growing number of organisations implement ECS to facilitate collaboration among employees. Consequently, ECS form the core of the digital workplace. Thus, the activity logs of ECS are particularly valuable since they provide a unique opportunity for observing and analysing collaboration in the digital workplace.
Evidence from academia and practice demonstrates that there is no standardised approach for the analysis of ECS logs and that practitioners struggle with various barriers. Because current ECS analytics tools only provide basic features, academics and practitioners cannot leverage the full potential of the activity logs. As ECS activity logs are a valuable source for understanding collaboration in the digital workplace, new methods and metrics for their analysis are required. This dissertation develops Social Collaboration Analytics (SCA) as a method for measuring and analysing collaboration activities in ECS. To address the existing limitations in academia and practice and to contribute a method and structures for applying SCA in practice, this dissertation aims to answer two main research questions:
1. What are the current practices for measuring collaboration activities in Enterprise Collaboration Systems?
2. How can Social Collaboration Analytics be implemented in practice?
By answering the research questions, this dissertation seeks to (1) establish a broad thematic understanding of the research field of SCA and (2) to develop SCA as a structured method for analysing ac-tivity logs of ECS. As part of the first research question, this dissertation documents the status quo of SCA in the academic literature and practice. By answering the second research question, this dissertation contributes the SCA framework (SCAF), which guides the practical application of SCA. SCAF is the main contribution of this dissertation. The framework was developed based on findings from an analysis of 86 SCA studies, results from 6 focus groups and results from a survey among 27 ECS user companies. The phases of SCAF were derived from a comparison of established process models for data mining and business intelligence. The eight phases of the framework contain detailed descriptions, working steps, and guiding questions, which provide a step by step guide for the application of SCA in practice. Thus, academics and practitioners can benefit from using the framework.
The constant evaluation of the research outcomes in focus groups ensures both rigour and relevance. This dissertation employs a qualitative-dominant mixed-methods approach. As part of the university-industry collaboration initiative IndustryConnect, this research has access to more than 30 leading ECS user companies. Being built on a key case study and a series of advanced focus groups with representatives of user companies, this dissertation can draw from unique insights from practice as well as rich data with a longitudinal perspective.
Social Business Documents: An Investigation of their Nature, Structure and Long-term Management
(2018)
Business documents contain valuable information. In order to comply with legal requirements, to serve as organisational knowledge and to prevent risks they need to be managed. However, changes in technology with which documents are being produced introduced new kinds of documents and new ways of interacting with documents. Thereby, the web 2.0 led to the development of Enterprise Collaboration Systems (ECS), which enable employees to use wiki, blog or forum applications for conducting their business. Part of the content produced in ECS can be called Social Business Documents (SBD). Compared to traditional digital documents SBD are different in their nature and structure as they are, for example, less well-structured and do not follow a strict lifecycle. These characteristics bring along new management challenges. However, currently research literature lacks investigations on the characteristics of SBD, their peculiarities and management.
This dissertation uses document theory and documentary practice as theoretical lenses to investigate the new challenges of the long-term management of SBD in ECS. By using an interpretative, exploratory, mixed methods approach the study includes two major research parts. First, the nature and structure of Social Business Documents is addressed by analysing them within four different systems using four different modelling techniques each. The findings are used to develop general SBD information models, outlining the basic underlying components, structure, functions and included metadata, as well as a broad range of SBD characteristics. The second phase comprises a focus group, a case study including in-depth interviews and a questionnaire, all conducted with industry representatives. The focus group identified that the kind of SBD used for specific content and the actual place of storage differ between organisations as well as that there are currently nearly no management practices for SBD at hand. The case study provided deep insights into general document management activities and investigated requirements, challenges and actions for managing SBD. Finally, the questionnaire consolidated and deepened the previous findings. It provides insights about the value of SBD, their current management practices as well as management challenges and needs. Despite all participating organisations storing information worth managing in SBD most are not addressing them with management activities and many challenges remain.
Together, the investigations enable a contribution to practice and theory. The progress in practice is summarised through a framework, addressing the long-term management of Social Business Documents. The framework identifies and outlines the requirements and challenges of and the actions for SBD management. It also indicates the dependencies of the different aspects. Furthermore, the findings enable the progress in theory within documentary practice by discussing the extension of document types to include SBD. Existing problems are outlined along the definitions of records and the newly possible characteristics of documents emerging through Social Business Documents are taken into account.
SOA-Security
(2007)
This paper is a part of the ASG project (Adaptive Services Grid) and addresses some IT security issues of service oriented architectures. It defines a service-oriented security concept, it explores the SOA security challenge, it describes the existing WS-Security standard, and it undertakes a first step into a survey on best practice examples. In particular, the ASG middleware platform technology (JBossWS) is analyzed with respect to its ability to handle security functions.
Smart Building Solutions - Generischer Ansatz für die Identifikation von Raumsteuerungsfunktionen
(2018)
40 percent of current housing and real estate companies plan to integrate intelligent control systems into their properties during new construction and modernization. At the same time, Internet companies are pushing their devices into homes and apartments, promising intelligent services for their users. The term "Smart Home" is used for both types of new technologies. The first group of systems has its origins in the field of "Building Automation", the second group developed from the concept of the "Internet of Things".
In order to discover what the differences are and what common foundations exist, both the areas of Building Automation and Internet of Things are analyzed and compared.
The central contribution of this thesis is the realization that both domains are based on similar concepts and an integration is possible, without compromising the integrity of the systems themselves. In addition, the work provides an approach to designing Building Automation Systems with the integration of the Internet of Things.
This paper describes results of the simulation of social objects, the dependence of schoolchildren's professional abilities on their personal characteristics. The simulation tool is the artificial neural network (ANN) technology. Results of a comparison of the time expense for training the ANN and for calculating the weight coefficients with serial and parallel algorithms, respectively, are presented.
Although e-participation is becoming more and more important, security risks and requirements are so far only superficially regarded. This master thesis aims at contribute to security and privacy of e-participation applications. This paper deals with the users of electronic participation forms. Since personal data has to be transmitted in the e-participation process, systems require trustworthiness, privacy, transparency, availability and legal security between public administration and users. Therefore it is very important to ensure the most of security and privacy standards in information and communication technologies by the administration and the citizens to provide the necessary confidence in using e participation applications. This master thesis examines different e-participation platforms of the areas participatory budgeting, e-consultations, party websites, and e-petitions and explores at first which influence of sensitive e-participation systems on the political system they have. Subsequently, the current safety standard of the e-participation applications is determined. For this purpose an analysis framework is used, regarding on relevant security and privacy issues for e-participation. Based on the results safety levels are deduced from different types of e-participation applications. In addition recommendations for the constitution of e-participation are concluded, which helps to make e participation applications more secure. Furthermore, future technologies with the potential to improve security in the use of electronic public participation are presented.
This paper describes the development of security requirements for non-political Internet voting. The practical background is our experience with the Internet voting within the Gesellschaft für Informatik (GI - Informatics Society) 2004 and 2005. The theoretical background is the international state-of-the-art of requirements about electronic voting, especially in the US and in Europe. A focus of this paper is on the user community driven standardization of security requirements by means of a Protection Profile of the international Common Criteria standard.
The Internet of Things (IoT) is a concept in which connected physical objects are integrated into the virtual world to become active partakers of businesses and everyday processes (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). It is expected to have a major impact on businesses (Council, Nic and Intelligence, 2008), but small and medium enterprises’ business models are threatened if they do not adopt the new concept (Sommer, 2015). Thus, this thesis aims to showcase a sample implementation of connected devices in a small enterprise, demonstrating its added benefits for the business.
Design Science Research (DSR) is used to develop a prototype based on a use case provided by a carpentry. The prototype comprises a hardware sensor and a web application which can be used by the wood shop to improve their processes. The thesis documents the iterative process of developing a prototype from the grounds up to useable hard- and software.
This contribution provides an example of how IoT can be used and implemented at a small business.
Im Gesundheitswesen geht es nicht nur um die Vertraulichkeit von Patientendaten, sondern auch um ihre Integrität, von der die richtige Behandlung und Pflege des Patienten abhängen. Eine Maßnahme zur Absicherung eines Krankenhausinformationssystems (KIS) gegen unautorisierte Angreifer ist eine flexibel organisierte Zugriffskontrolle zum Schutz der patientenbezogenen Daten. Dieser Artikel beschreibt das Konzept einer rollenbasierten Zugriffskontrolle (RBAC - Role Based Access Control) und seine Einsatzmöglichkeiten im Gesundheitswesen.
Die Arbeit befasst sich mit der Entwicklung und Umsetzung eines Prototyps, der einen Lebensmittelallergiker bei der Auswahl von Produkten beim Einkaufen unterstützen soll. Dazu wird die berührungslose RFID-Technologie zu Hilfe genommen, mit der es möglich ist RFID-Tags (die an Produkten angebracht sind) ohne direkten Sichtkontakt auszulesen. Die eingelesenen Produktnummern können dazu verwendet werden in einem Datenbank-System die Inhaltsstoffe des Produktes abzufragen. Ein Vergleich mit den Allergenen des Benutzers und eine entsprechende Warnung sind somit möglich.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Public electronic procurement (eProcurement), here electronic sourcing (eSourcing) in particular, is almost certainly on the agenda when eGovernment experts meet. Not surprisingly is eProcurement the first high-impact service to be addressed in the European Union- recent Action Plan. This is mainly dedicated to the fact that public procurement makes out almost 20% of Europe- GDP and therefore holds a huge saving potential. To some extent this potential lies in the common European market, since effective cross-boarder eSourcing solutions can open many doors, both for buyers and suppliers. To achieve this, systems and processes and tools, need to be adoptable, transferable as well as be able to communicate with each other. In one word, they need to be interoperable. In many relevant domains, interoperability has reached a very positive level, standards have been established, workflows been put in place. In other domains however, there is still a long road ahead. As a consequence it is crucial to define requirements for such interoperable eSourcing systems and to identify the progress in research and practice.
Remote Working Study 2022
(2022)
The Remote Working Study 2022 is focused on the transition to work from home (WFH) triggered by the stay at home directives of 2020. These directives required employees to work in their private premises wherever possible to reduce the transmission of the coronavirus. The study, conducted by the Center for Enterprise Information Research (CEIR) at the University of Koblenz from December 2021 to January 2022, explores the transition to remote working.
The objective of the survey is to collect baseline information about organisations’ remote work experiences during and immediately following the COVID-19 lockdowns. The survey was completed by the key persons responsible for the implementation and/or management of the digital workplace in 19 German and Swiss organisations.
The data presented in this report was collected from member organisations of the IndustryConnect initiative. IndustryConnect is a university-industry research programme that is coordinated by researchers from the University of Koblenz. It focuses on research in the areas of the digital workplace and enterprise collaboration technologies, and facilitates the generation of new research insights and the exchange of experiences among user companies.
To construct a business process model manually is a highly complex and error-prone task which takes a lot of time and deep insights into the organizational structure, its operations and business rules. To improve the output of business analysts dealing with this process, different techniques have been introduced by researchers to support them during construction with helpful recommendations. These supporting recommendation systems vary in their way of what to recommend in the first place as well as their calculations taking place under the hood to recommend the most fitting element to the user. After a broad introduction into the field of business process modeling and its basic recommendation structures, this work will take a closer look at diverse proposals and descriptions published in current literature regarding implementation strategies to effectively and efficiently assist modelers during their business process model creation. A critical analysis of presentations in the selected literature will point out strengths and weaknesses of their approaches, studies and descriptions of those. As a result, the final concept matrix in this work will give a precise and helpful overview about the key features and recommendation methods used and implemented in previous research studies to pinpoint an entry into future works without the downsides already spotted by fellow researchers.
Predictive Process Monitoring is becoming more prevalent as an aid for organizations to support their operational processes. However, most software applications available today require extensive technical know-how by the operator and are therefore not suitable for most real-world scenarios. Therefore, this work presents a prototype implementation of a Predictive Process Monitoring dashboard in the form of a web application. The system is based on the PPM Camunda Plugin presented by Bartmann et al. (2021) and allows users to easily create metrics, visualizations to display these metrics, and dashboards in which visualizations can be arranged. A usability test is with test users of different computer skills is conducted to confirm the application’s user-friendliness.
The industry standard Decision Model and Notation (DMN) has enabled a new way for the formalization of business rules since 2015. Here, rules are modeled in so-called decision tables, which are defined by input columns and output columns. Furthermore, decisions are arranged in a graph-like structure (DRD level), which creates dependencies between them. With a given input, the decisions now can be requested by appropriate systems. Thereby, activated rules produce output for future use. However, modeling mistakes produces erroneous models, which can occur in the decision tables as well as at the DRD level. According to the Design Science Research Methodology, this thesis introduces an implementation of a verification prototype for the detection and resolution of these errors while the modeling phase. Therefore, presented basics provide the needed theoretical foundation for the development of the tool. This thesis further presents the architecture of the tool and the implemented verification capabilities. Finally, the created prototype is evaluated.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
This thesis explores the possibilities of probabilistic process modelling for the Computer Supported Cooperative Work (CSCW) systems in order to predict the behaviour of the users present in the CSCW system. Toward this objective applicability, advantages, limitations and challenges of probabilistic modelling are excavated in context of CSCW systems. Finally, as a primary goal seven models are created and examined to show the feasibilities of probabilistic process discovery and predictions of the users behaviour in CSCW systems.
This diploma thesis describes the concept and implementation of a software router for policy-based Internet regulation. It is based on the ontology InFO described by Kasten and Scherp. InFO is destined for a system-independent description of regulation mechanisms. Additionally, InFO enables a transparent regulation by linking background information to the regulation mechanisms. The InFO extension RFCO extends the ontology with router-specific entities. A software router is developed to implement RFCO at the IP level. The regulation is designed to be transparent by letting the router inform affected users about the regulation measures. The router implementation is exemplarily tested in a virtual network environment.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
Die Integration von GPS-Empfängern in massenmarkttaugliche Endgeräte führt zu einer Vielfalt neuer Anwendungsmöglichkeiten. Gerade in der Spieleentwicklung eröffnen sich durch diese Erweiterung um ortsbezogene Informationen bisher wenig genutzte Ansätze, da die übliche statische Spielwelt um die reale Umgebung ergänzt oder durch sie ersetzt wird. Eine damit einhergehende Steigerung des Spielerlebnisses bietet einen Vorteil gegenüber gängigen Spielen und somit Marktchancen. Die prototypische Umsetzung soll weiterhin dazu dienen, die technischen Grundlagen für weitere Anwendungen zu schaffen. Beispiele hierfür sind Informationssysteme auf Veranstaltungen oder Navigationshilfen. Die zugrundeliegende, auf ein Geoinformationssystem aufbauende, Infrastruktur dient auch in diesen Fällen der sinnvollen Erweiterung der Anwendung. Weiterhin erfordert die Nutzung mobiler netzwerkbasierender Anwendungen die bei mobiler Datenkommunikation auftretenden Verbindungsschwierigkeiten zu berücksichtigen. Aus diesem Grund beschäftigt sich diese Arbeit mit der Behandlung dieser Probleme.
The aim of this thesis is to provide the information that is needed to build a correct data history in a Business Intelligence System. Thereby the phenomena of "Slowly Changing Dimensions" is emphasised. At first a definition of business intelligence is provided which includes the ETL-process, data warehousing, and on-line analytic processing. Furthermore data mining, reporting, dashboards an BI-portals can be considered as a part of the BI-process. It is possible to represent slowly changing dimensions in a database management system. This is modelled in the ETL-process. The data is transformed in a certain way, before being loaded into the data warehouse. Type 1 SCD represents a simple update of the current dimension entry. Type 2 SCD provides a history of the data. It saves all the intermediate states of it. Thus, a user can track all states that changed during a certain time. Type 2 SCD is the one which is mostly used. Type 3 SCD provides just the original and the actual state. Aside from this three types there are existing some hybrid and extended versions.
Opinion Mining
(2010)
Das Opinion Mining stellt eine Methode dar, mit der Meinungen aus dem WWW gefiltert und intelligent aufbereitet werden können, um Stimmungsanalysen zu einzelnen Produkten und Dienstleistungen zu erstellen. Opionion Mining bietet den Unternehmen somit eine innovative Möglichkeit, ihre Marketingkommmunikation planbarer und wirkungsvoller zu gestalten und ein deutlich erhöhtes Maß an Involvement und Relevanz innerhalb bestimmter Zielgruppen zu erreichen. Zunächst werden die theoretischen Grundlagen des Web 2.0 und relevanter Methoden der Business Intelligence erläutert. Die empirische Untersuchung bildet den Schwerpunkt der Arbeit. Auf die Entwicklung eines Vorgehensmodells folgt die praktische Anwendung dieses Modells auf ein Produkt. Die Ergebnisse werden im Review-Scan im Hinblick auf Forschung und Praxis ausgewertet und diskutiert.
Ziel dieser Forschungsarbeit ist die Auswahl und Evaluierung von Open-Source ERPSystemen auf effiziente Anwendbarkeit in Unternehmen zum Zwecke des Aufbaus eines "ERP-Future-Labs", in welchem mittelständische Handelsunternehmen das/die installierte(n) System(e) testen können. Den Projektabschluss bildet hierbei die Installation eines lauffähigen Systems, auf welchem die vom Auftraggeber vorgegebenen Geschäftsprozesse abgewickelt werden können. Ferner sollen die Auftraggeber auf dem System geschult, eine Dokumentation der Software (Installation/Bedienung) und des Projekts erstellt werden.
The flexible integration of information from distributed and complex information systems poses a major challenge for organisations. The ontology-based information integration concept SoNBO (Social Network of Business Objects) developed and presented in this dissertation addresses these challenges. In an ontology-based concept, the data structure in the source systems (e.g. operational application systems) is described with the help of a schema (= ontology). The ontology and the data from the source systems can be used to create a (virtualised or materialised) knowledge graph, which is used for information access. The schema can be flexibly adapted to the changing needs of a company regarding their information integration. SoNBO differs from existing concepts known from the Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) both in the structure of the company-specific ontology (= Social Network of Concepts) as well as in the structure of the user-specific knowledge graph (= Social Network of Business Objects) and makes use of social principles (known from Enterprise Social Software). Following a Design Science Research approach, the SoNBO framework was developed and the findings documented in this dissertation. The framework provides guidance for the introduction of SoNBO in a company and the knowledge gained from the evaluation (in the company KOSMOS Verlag) is used to demonstrate its viability. The results (SoNBO concept and SoNBO framework) are based on the synthesis of the findings from a structured literature review and the investigation of the status quo of ontology-based information integration in practice: For the status quo in practice, the basic idea of SoNBO is demonstrated in an in-depth case study about the engineering office Vössing, which has been using a self-developed SoNBO application for a few years. The status quo in the academic literature is presented in the form of a structured literature analysis on ontology-based information integration approaches. This dissertation adds to theory in the field of ontology-based information integration approaches (e. g. by an evaluated artefact) and provides an evaluated artefact (the SoNBO Framework) for practice.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
Moderne Instant-Messaging-Systeme als Plattform für sicherheitskritische kollaborative Anwendungen
(2010)
Many Instant Messaging (IM) systems like Skype or Spark offer extended services, e.g., file sharing, VoIP, or shared whiteboard functionality. IM applications are predominantly used for a spontaneous text-based communication for private purposes. In addition, there is a potential to use such applications in a business context. In particular, the discussion in this dissertation shows that IM systems can serve as platforms for secure collaborative applications (e.g., electronic contract negotiation, e-payment or electronic voting). On the one hand, such applications have to deal with many challenges, e.g., time constraints (an "instant" communication is desired), the integration of multiple media channels and the absence of one unifying "sphere of control" covering all participants. On the other hand, instant messaging systems provide many advantages, e.g., (i) a spontaneous and flexible usage, (ii) easy distribution of information to many participants and (iii) the availability of different channels for the tasks at hand. The original intention of these systems (spontaneous free-flowing information exchange), their modular construction, the unsupervised installation and the ability to easily transmit information over a multitude of channels raise many questions and challenges for IT security. For example, one needs to consider how to contain confidential information, how to verify the authenticity of a communication partner, or how to ensure the non-repudiation of statements. This thesis aims to design security mechanisms that allow to use IM systems as a platform for a collaboration that is both (i) spontaneous and flexible as well as (ii) secure, authentic and non-repudiable. Example applications where such collaboration platforms could be used are the electronic negotiation of contracts, electronic payments or electronic voting.
In this work a framework is developed that is used to create an evaluation scheme for the evaluation of text processing tools. The evaluation scheme is developed using a model-dependent software evaluation approach and the focus of the model-dependent part is the text-processing process which is derived from the Conceptual Analysis Process developed in the GLODERS project. As input data a German court document is used containing two incidents of extortion racketeering which happened in 2011 and 2012. The evaluation of six different tools shows that one tool offers great results for the given dataset when it is compared to manual results. It is able to identify and visualize relations between concepts without any additional manual work. Other tools also offer good results with minor drawbacks. The biggest drawback for some tools is the unavailability of models for the German language. They can perform automated tasks only on English documents. Nonetheless some tools can be enhanced by self-written code which allows users with development experience to apply additional methods.
Diese Diplomarbeit beschreibt die Entwicklung einer mobilen Anwendung als Mittel der E-Partizipation am Beispiel der einheitlichen Behördenrufnummer 115 ("D115"). D115 ist ein Projekt des Bundesministerium des Innern (BMI), bei dem Bürgerinnen und Bürger unter einer einzigen Telefonnummer Auskünfte über Leistungen der öffentlichen Verwaltung erhalten. Im Rahmen dieser Diplomarbeit wird ein Client-Server-Ansatz entwickelt, der solche Anfragen und Meldungen an die Verwaltung mittels mobiler Endgeräte verarbeitet. Dabei werden Aspekte der E-Partizipation, des Ubiquitous Computing und der Location-based Services vereint. Gestützt auf ein Geo-Informationssystem soll sich ein Nutzer jederzeit und jederorts über Angelegenheiten der Verwaltung informieren und aktiv daran beteiligen können, sei es, um einen umgestürzten Baum, eine gesperrte Straße oder Vandalismus an einer Parkbank zu melden.
In usage of information systems the maintenance of their actuality and their extensibility is of importance. There is a constant reoccurrence of situations, when these goals cannot be supported by keeping on the old system, the legacy system. A solution for that is its migration into a new environment. The migration of software is to be considered as a subdiscipline of software engineering, more precisely, as a part of software maintenance. In this thesis the reference migration process model ReMiP, introduced in another thesis of the institute, was applied. The goal of this examination is to bring this model to practice in a website migration project and to analyze its validity. Here, especially the subject of completeness and generalizability of the model for migration processes and the gathering of concrete experiences with the intensity of its activities is of interest. The target environment for the website migration will be the content management system Plone. Within this thesis it will be described thoroughly. Finally, the website to migrate will be brought to its new target environment. The result of this thesis is the migrated GXL-Website in the target system Plone using the ReMiP. By this migration, the ReMiP was successfully validated as a reference process model for software migrations.
Multi-agent systems are a mature approach to model complex software systems by means of Agent-Oriented Software Engineering (AOSE). However, their application is not widely accepted in mainstream software engineering. Parallel to this the interdisciplinary field of Agent-based Social Simulation (ABSS) finds increasing recognition beyond the purely academic realm which starts to draw attention from the mainstream of agent researchers. This work analyzes factors to improve the uptake of AOSE as well as characteristics which separate the two fields AOSE and ABSS to understand their gap. Based on the efficiency-oriented micro-agent concept of the Otago Agent Platform (OPAL) we have constructed a new modern and self-contained micro-agent platform called µ². The design takes technological trends into account and integrates representative technologies, such as the functionally-inspired JVM language Clojure (with its Transactional Memory), asynchronous message passing frameworks and the mobile application platform Android. The mobile version of the platform shows an innovative approach to allow direct interaction between Android application components and micro-agents by mapping their related internal communication mechanisms. This empowers micro-agents to exploit virtually any capability of mobile devices for intelligent agent-based applications, robotics or simply act as a distributed middleware. Additionally, relevant platform components for the support of social simulations are identified and partially implemented. To show the usability of the platform for simulation purposes an interaction-centric scenario representing group shaping processes in a multi-cultural context is provided. The scenario is based on Hofstede's concept of 'Cultural Dimensions'. It does not only confirm the applicability of the platform for simulations but also reveals interesting patterns for culturally augmented in- and out-group agents. This explorative research advocates the potential of micro-agents as a powerful general system modelling mechanism while bridging the convergence between mobile and desktop systems. The results stimulate future work on the micro-agent concept itself, the suggested platform and the deeper exploration of mechanisms for seemless interaction of micro-agents with mobile environments. Last but not least the further elaboration of the simulation model as well as its use to augment intelligent agents with cultural aspects offer promising perspectives for future research.
Im Rahmen der mGeoWiki-Projekte wird ein neuer Ansatz geschaffen, mit ortsbezogenen Daten umzugehen. Bisher gibt es zum einen Geo-Portale, wie Google Maps, die es einem ermöglichen, Landkarten oder Luftbilder von jedem beliebigen Ort auf der Erde anzusehen. Dort können von jedem Benutzer zusätzliche Informationen oder auch Fotos hinterlegt und somit anderen Benutzern zugänglich gemacht werden. Die Nutzung dieses Dienstes ist kostenlos. Eine weitere Nutzung ortsbezogener Daten findet sich bei den Navigationssystemen. Hier wird die aktuelle Position mit Hilfe des GPS-Empfängers ermittelt und auf einer Karte angezeigt. Darüber hinaus werden thematische Informationen, wie Hotels oder Tankstellen, dargestellt. Diese zusätzlichen Informationen sind jedoch nicht unmittelbar durch den Benutzer veränderbar, sondern werden durch die Hersteller der Geräte vorgegeben. Eine Aktualisierung ist in der Regel kostenpflichtig. Das mGeoWiki kombiniert diese verschiedene Aspekte zu einem neuen Service. Der erste wichtige Aspekt ist die Mobilität. Der Benutzer kann sich frei in seiner Umwelt bewegen,seine Position wird mittels GPS festgestellt. Dann werden dem Benutzer Luftbilder und zusätzliche Informationen über den aktuellen Standort gezeigt. Der Benutzer ist also nicht mehr an seinen heimischen PC gebunden. Der zweite wichtige Aspekt ist die Möglichkeit der Benutzer, eigene, standortbezogene Daten zu hinterlegen, zu diskutieren und zu verändern. Am Beispiel des Landesamts für Vermessung und Geobasisinformation Rheinland-Pfalz (LVermGeo RLP) und dessen Plattform TIM-Online wird gezeigt, wie sich das mGeoWiki als generische Plattform im e-Government-Kontext einsetzen lässt.
Massenprozessmanagement
(2015)
This dissertation answers the research question which basically suitable approaches and which necessary information technologies are to be considered for the management of business processes in large amounts (Mass Business Process Management, MBPM) in service companies. It could be shown that for the execution of mass processes a special approach that uses methods of the manufacturing industry is necessary. The research aim to develop an MBPM approach for service companies was accomplished by using the Design Science Research approach and is explained in this dissertation in consecutive steps. For the development of the MBPM approach a longitudinal indepth case study was conducted with a business process outsourcing provider to gain insights from his approach. Outsourcing providers have to produce their services in a very efficient and effective way, otherwise they will not be able to offer their products at favorable conditions. It was shown that the factory-oriented approach of the out-sourcing service provider in the observation period of ten years was suitable to execute mass processes of highest quality, at constantly decreasing prices with less and less people.
The assumed need for research concerning MBPM was verified on the basis of an extensive literature research based on the Journal Rating VHB-Jourqual and other literature sources. As many approaches for the introduction of BPM were found, a selection of BPM approaches was analyzed to gain further insights for the development of the MBPM approach. Based on the analysis and the comparison of the different BPM approaches as well as the comparison with the approach of the process outsourcing provider it was found, that BPM and MBPM differ in many aspects. MBPM has a strong operational focus and needs intensive IT support. The operative focus mainly shows in the operative control of processes and people as well as in the corresponding high demands on process transparency. With detailed monitoring and fine grained process measurements as well as timely reporting this process transparency is achieved. Information technology is needed for example to conduct process monitoring timely but also to give internal as well as external stakeholders the desired overview of the current workload and of the invoicing of services.
Contrary to the approach of the process outsourcing provider it could also been shown, that change management can influence the implementation, the continuous operation and the constant change associated with MBPM in a positive way.
Business Process Querying (BPQ) is a discipline in the field of Business Process Man- agement which helps experts to understand existing process models and accelerates the development of new ones. Its queries can fetch and merge these models, answer questions regarding the underlying process, and conduct compliance checking in return. Many languages have been deployed in this discipline but two language types are dominant: Logic-based languages use temporal logic to verify models as finite state machines whereas graph-based languages use pattern matching to retrieve subgraphs of model graphs directly. This thesis aims to map the features of both language types to features of the other to identify strengths and weaknesses. Exemplarily, the features of Computational Tree Logic (CTL) and The Diagramed Modeling Language (DMQL) are mapped to one another. CTL explores the valid state space and thus is better for behavioral querying. Lacking certain structural features and counting mechanisms it is not appropriate to query structural properties. In contrast, DMQL issues structural queries and its patterns can reconstruct any CTL formula. However, they do not always achieve exactly the same semantic: Patterns treat conditional flow as sequential flow by ignoring its conditions. As a result, retrieved mappings are invalid process execution sequences, i.e. false positives, in certain scenarios. DMQL can be used for behavioral querying if these are absent or acceptable. In conclusion, both language types have strengths and are specialized for different BPQ use cases but in certain scenarios graph-based languages can be applied to both. Integrating the evaluation of conditions would remove the need for logic-based languages in BPQ completely.
With global and distributed project teams being increasingly common Collaborative Project Management is becoming the prevalent paradigm for the work in most organisations. Software has for many years been one of the most used tools for supporting Project Management and with the focus on Collaborative Project Management and accompanied by the emergence of Enterprise Collaboration Systems (ECS), Collaborative Project Management Software (CPMS) is gaining increased attention. This thesis examines the capabilities of CPMS for the long-term management of information which not only includes the management of files within these systems, but the management of all types of digital business documents, particularly social business documents. Previous research shows that social content in collaboration software is often poorly managed which poses challenges to meeting performance and conformance objectives in a business. Based on literature research, requirements for the long-term management of information in CPMS are defined and 7 CPMS tools are analysed regarding the content they contain and the functionalities for the long-term management of this content they offer. The study shows that CPMS by and large are not able to meet the long-term information management needs of an organisation on their own and that only the tools geared towards enterprise customers have sufficient capabilities to support the implementation of an Enterprise Information Management strategy.
Die vorliegende Diplomarbeit untersucht die Emergenz eines gemeinsam genutzten Lexikons anhand einer Implementierung des Modells von Edwin Hutchins und Brian Hazlehurst. Zunächst erläutert diese Arbeit das oben genannte Modell und analysiert sowohl verschiedene Simulationstechniken, insbesondere die der Multi-Agenten-Simulation, als auch den Aufbau und die Funktionalität künstlicher neuronaler Netze, welche als Hauptbestandteile des Modells angesehen werden können. Der Modellbeschreibung folgen Entwurf, Architektur und eine detaillierte Erläuterung der Implementierung des Werkzeugs LexLearn. LexLearn ist ein in Java komplett neu konzipiertes und implementiertes Programm und bietet dem Benutzer die Möglichkeit, die Emergenz einer gemeinsam genutzten Sprache innerhalb verschiedener Agentengemeinschaften zu simulieren und zu analysieren. In mehreren Simulationsdurchläufen werden sowohl die Ergebnisse von Edwin Hutchins und Brian Hazlehurst reproduziert als auch weitere Erkenntnisse durch neu erstellte Simulationen gewonnen.
Der Fachbereich 4: Informatik der Universität Koblenz-Landau bietet seit seiner Gründung 1990 wissenschaftliche Studiengänge (Diplom) in Informatik mit verschiedenen Schwerpunkten, darunter Wirtschaft- und Verwaltungsinformatik an, dem nach und nach weitere Studiengänge zur Seite gestellt wurden: seit 1997 Computervisualistik (Diplom) und seit 2000 Informationsmanagement (Bachelor und Master). Der Fachbereich 4: Informatik hat zum Wintersemester 2006/2007 sein Lehrangebot in den Nicht-Lehramtsstudiengängen vollständig auf konsekutive Bachelor- und Masterstudiengänge umgestellt. Die Akkreditierung erfolgte über die Akkreditierungsagentur ASIIN. Die Aufnahme von Studienanfängern für die bis dahin angebotenen Diplomstudiengänge "Informatik" bzw. "Computervisualistik" wurde gleichzeitig eingestellt, und diese wurden durch ein integriertes Programm mit zwei konsekutiven Bachelor-Master-Studienprogrammen in "Informatik" und "Computervisualistik" ersetzt. Das bereits bestehende Bachelor-Master-Programm in "Informationsmanagement" wurde reformiert, und ein weiterer Masterstudiengang in "Wirtschaftsinformatik" wurde eingerichtet. Bei der Konzeption dieser sieben Studiengänge wurde auf eine hohe Integration und Studiengangs-übergreifende Wiederverwendung von Modulen geachtet. Die in diesem Papier vorgestellten Studiengänge für das Lehramt wurden schon bei der damaligen Planung mit einbezogen. Da mit Prof. Dr. Stefan Müller der Leiter der Landesarbeitsgruppe zur Erarbeitung der curricularen Standards für das Fach Informatik bei der Planung eng mit eingebunden war, konnten die Module der Bachelor- und Masterstudiengänge von Anfang an im Hinblick auf eine spätere Verwendung auch im Lehramt konzipiert werden.
ERP-Systeme stellen einen wichtigen Kompetenzbereich der Forschungsgruppe Betriebliche Anwendungssysteme (FG BAS) am Institut für Wirtschafts- und Verwaltungsinformatik (IWVI) der Universität Koblenz-Landau dar. In enger Zusammenarbeit mit Partnern aus Wirtschaft und Wissenschaft vermittelt die Forschungsgruppe sowohl Grundlagenforschung als auch praxisbezogenes Wissen an Studierende und Unternehmen. Der vorliegende Arbeitsbericht "Künftige Anforderungen an ERP-Systeme: Deutsche Anbieter im Fokus" beleuchtet auf vier Ebenen die Architektur, die verwendete Technologie, die praktischen Einsatzmöglichkeiten und die allgemeine Marktsituation aktueller ERP-Systeme auf dem deutschsprachigen Markt. Ein besonderer Dank geht in diesem Zusammenhang an Peter Herzog (zum damaligen Zeitpunkt Marketingleiter der Bison AG), der die Idee einer solchen Untersuchung hatte und die FG BAS mit deren Durchführung betraute. Die Studie wurde vom Sommer 2007 bis zum Frühling 2008 von Norbert Frick im Rahmen seiner Diplomarbeit im Fach Informatik durchgeführt. Die Auswertung der Ergebnisse wurde inhaltlich und wissenschaftlich betreut von Prof. Dr. Petra Schubert. Die Arbeit entstand aufgrund von Literaturrecherchen, schriftlichen Umfragen und Telefoninterviews mit ERPAnbietern.
Enterprise Resource Planning Systeme (ERP) bilden für viele Unternehmen eine wertvolle informationstechnische Unterstützung in der täglichen Wertschöpfung. Sie repräsentieren eine Klasse von hoch-integrierten und standardisierten betrieblichen Anwendungssystemen, deren Nutzenpotential für ein Unternehmen wettbewerbsentscheidend sein kann. Trotzdem muss eine Einführung von den verantwortlichen CEOs und CIOs sorgsam abgewogen werden, denn zu voreilige oder schlecht geplante ERPProjekte können ein erhebliches finanzielles Risiko darstellen, so dass am Ende sogar die Existenz eines Unternehmens bedroht ist. Bereits bestehende Systeme können aufgrund von einer unzureichenden Integrationsfähigkeit oder veralteten Technologie zusätzliche Wartungskosten verursachen, die in keinem Verhältnis zu den initialen Lizenzkosten mehr stehen. Wie kann man nun eine Vorstellung davon erhalten, welches ERP-System für ein Unternehmen geeignet ist? Gibt es bereits Standardpakete, deren Wartung und Pflege deutlich einfacher ist? Oder ist eine Mietlösung ein zu gewagtes Risiko? Diese Fragen haben den Anstoß zu der folgenden Arbeit gegeben. Die Aufgabe besteht darin, ein möglichst umfassendes Bild der kurz- bis mittelfristigen Zukunft des deutschen ERP-Marktes zu zeichnen. Dafür wurden in einer längeren Zeitperiode zahlreiche in Deutschland tätige Softwarehäuser hinsichtlich wichtiger Aspekte ihres ERPSystems befragt und die Antworten ausgewertet. Welchen Herausforderungen und welchen Anforderungen sich deutsche Anbieter in den kommenden drei bis fünf Jahren stellen müssen, werden die folgenden Kapitel erläutern.
Die Studienarbeit soll eine Vorstellung davon vermitteln, in welcher ökonomischen Größenordnung Kopierschutzmaßnahmen anzusiedeln sind. Es wird erläutert, dass die Wirksamkeit von Schutzmechanismen neben der eigentlichen Funktionalität einen ausschlaggebenden Einfluss auf die Wirtschaftlichkeit eines Produktes nimmt. Dieser Grundsatz liegt in der Verantwortung der Softwarehersteller. Gesetzliche Rahmenbedingungen im Urheberrecht regeln den Umgang mit digitalen Gütern von staatlicher Seite aus. Das Zusammenspiel der beiden Institutionen, Staat und Privatunternehmen, wird in dieser Arbeit untersucht. Beschrieben wird ein Überblick über Schutzmechanismen von Computerspielen, indem die aktuell gebräuchlichen Kopierschutzmechanismen in ihrer Funktionsweise und Wirksamkeit vorgestellt werden. Ein anschließender Vergleich soll Aufschluss auf mögliche Unterschiede oder Gemeinsamkeiten geben. Anhand der hierbei gewonnenen Erkenntnisse folgt dann eine kritische Beurteilung mit einem Ausblick auf zukünftige Trends und Entwicklungen zur Vermeidung der Softwarepiraterie. Diese Arbeit soll nicht als Anleitung zur Softwarepiraterie missverstanden werden und soll auch nicht als Anregung dazu missbraucht werden.
The main goal of this paper is to ascertain, if neural networks (especially LSTM) are helpful in predicting processes by making predictions as accurately as possible.
TensorFlow is the used framework in Python to build recurrent neural networks. Two networks are built, whereby one is used for training and the other one for prediction.
Used datasets contain several processes with several events each. With those processes, the network ist trained and afterwards, the parameters are saved. The network for prediction uses these parameters to make predictions.
The neural network is able to make clear predictions about subsequent events. Even branches can be predicted.
When developed further, integration in other programs is possible. It is recommended to use unique names for the events or to rename them.
Diese Bachelorarbeit behandelt die Erweiterung eines Instant Messenger um die Funktion einer verschlüsselten Audio-/Videokonferenz. Es werden verschiedene zu diesem Zweck nutzbare Techniken beschrieben und gegenübergestellt. Besonderer Wert wird darauf gelegt, die Verbindung dementsprechend zu sichern, dass auch vertrauliche Informationen übermittelt werden können. Letztlich wird die Implementierung in Java für den Instant Messenger "Spark" sowie die Integration der Konferenz in ein eVoting-Plugin erläutert.
In dieser Forschungsarbeit wird eine Methode zur anwendungsbasierten Verknüpfung von Anforde-rungen und Enterprise Collaboration Softwarekompenten vorgestellt. Basierend auf dem etablierten IRESS Modell wird dabei ein praxistaugliches Mappingschema entwickelt, welches Use Cases über Kol-laborationsszenarien, Collaborative Features und Softwarekomponenten mit ECS verbindet. Somit las-sen sich Anforderungen von Unterhemen in Form von Use Cases und Kollaborationsszenarien model-lieren und anschließend über das Mappingschema mit konkreten ECS verbinden. Zusätzlich wird eine Methodik zur Identifikation von in Softwarekomponenten enthaltenen Collaborative Features vorge-stellt und exemplarisch angewandt.
Anschließend wird ein Konzept für eine Webapplikation entworfen, welches das vorgestellte Mapping automatisiert durchführt, und somit nach Eingabe der Anforderungen in Form vom Use Cases oder Kol-laborationsszenarien, die ECS ausgibt, die eben diese Anforderungen unterstützen.
Iterative Signing of RDF(S) Graphs, Named Graphs, and OWL Graphs: Formalization and Application
(2013)
When publishing graph data on the web such as vocabulariesrnusing RDF(S) or OWL, one has only limited means to verify the authenticity and integrity of the graph data. Today's approaches require a high signature overhead and do not allow for an iterative signing of graph data. This paper presents a formally defined framework for signing arbitrary graph data provided in RDF(S), Named Graphs, or OWL. Our framework supports signing graph data at different levels of granularity: minimum self-contained graphs (MSG), sets of MSGs, and entire graphs. It supports for an iterative signing of graph data, e. g., when different parties provide different parts of a common graph, and allows for signing multiple graphs. Both can be done with a constant, low overhead for the signature graph, even when iteratively signing graph data.
IT-Sicherheitsmodelle
(2008)
Es wird erklärt, was ein Beschreibungsmodell ist, wie IT-Sicherheitsmodelle grundsätzlich aufgebaut sind und welchem Zweck sie dienen. Zur Illustration werden vier verschiedene IT-Sicherheitsmodelle vorgestellt, die historisch zu unterschiedlichen Zeiten entstanden sind. Sie passen zu vier verschiedenen typischen Anwendungsumgebungen und charakterisieren die zugehörigen Sicherheitsanforderungen. Vorgestellt werden das Bell-LaPadula-Modell zum Vertraulichkeitsschutz in hierarchischen Institutionen, das Clark-Wilson-Modell zum Integri-tätsschutz von Geschäftsanwendungen, das Chinese-Wall-Modell zum Konkurrentenschutz von Unternehmen und das Gleichgewichtsmodell zum Schutz verbindlichen Handelns im offenen Internet.
Die vorliegende Arbeit bildet den Abschluss eines Forschungspraktikums von Studierenden der Masterstudiengänge Informationsmanagement und Wirtschaftsinformatik unter Betreuung der wissenschaftlichen Mitarbeiterin Daniela Simić-Draws und von Prof. Dr. Rüdiger Grimm. Eine wesentliche Vorlage zu dieser Arbeit war ein Vorgehensmodell zur Sicherheitsanalyse von Geschäftsprozessen, das von D. Simić-Draws im Rahmen ihrer Dissertation erarbeitet wird und zu dessen laufender Verbesserung dieses studentische Forschungspraktikum wertvolle Hinweise liefern konnte. Als Anwendungsbeispiel wurden die sicherheitskritischen Prozesse "Kommunalwahl" und "Geldauszahlung am Bankautomaten" gewählt, weil die Arbeitsgruppe von Prof. Grimm in diesen beiden Anwendungen aus vorhergehender wissenschaftlicher Arbeit Erfahrung gesammelt hat. Insbesondere zum Anwendungsbeispiel "Kommunalwahl" hatte sich dankenswerterweise das Ordnungsamt Koblenz, das für die Kommunalwahlen zuständig ist, unter aktiver Mithilfe ihres Leiters Dirk Urmersbach zur Zusammenarbeit angeboten, so dass dieser Geschäftsprozess wirklichkeitsnah untersucht werden konnte.
During the last couple of years the extension of the internet into the real world, also referred to as the Internet of Things (IoT), was positively affected by an ongoing digitalization (Mattern and Floerkemeier, 2010; Evans, 2013). Furthermore, one of the most active IoT domains is the personal health ecosystem (Steele and Clarke, 2013). However, this thesis proposes a gamification framework which is supported and enabled by IoT to bring personal health and IoT together in the context of health-insurances. By examining gamification approaches and identifying the role of IoT in such, a conceptual model of a gamification approach was created which indicates where and how IoT is ap-plicable to it. Hence, IoT acts as enabler and furthermore as enhancer of gamified activities. Especial-ly the necessity of wearable devices was highlighted. A stakeholder analysis shed light on respective benefits which concluded in the outcome, that IoT enabled two paradigm shifts for both, the insur-ance and their customer. While taking the results of the examination and the stakeholder analysis as input, the previously made insights were used to develop an IoT supported gamification framework. The framework includes a multi-level structure which is meant to guide through the process of creat-ing an approach but also to analyze already existing approaches. Additionally, the developed frame-work was instantiated based on the application Pokémon Go to identify occurring issues and explain why it failed to retain their customer in the long term. The thesis provides a foundation on which fur-ther context related research can be orientated.
The extensive literature in the data visualization field indicates that the process of creating efficient data visualizations requires the data designer to have a large set of skills from different fields (such as computer science, user experience, and business expertise). However, there is a lack of guidance about the visualization process itself. This thesis aims to investigate the different processes for creating data visualizations and develop an integrated framework to guide the process of creating data visualizations that enable the user to create more useful and usable data visualizations. Firstly, existing frameworks in the literature will be identified, analyzed and compared. During this analysis, eight views of the visualization process are developed. These views represent the set of activities which should be done in the visualization process. Then, a preliminary integrated framework is developed based on an analysis of these findings. This new integrated framework is tested in the field of Social Collaboration Analytics on an example from the UniConnect platform. Lastly, the integrated framework is refined and improved based on the results of testing with the help of diagrams, visualizations and textual description. The results show that the visualization process is not a waterfall type. It is the iterative methodology with the certain phases of work, demonstrating how to address the eight views with different levels of stakeholder involvement. The findings are the basis for a visualization process which can be used in future work to develop the fully functional methodology.
The Internet of Things (IoT) recently developed from the far-away vision of ubiquitous computing into very tangible endeavors in politics and economy, implemented in expensive preparedness programs. Experts predict considerable changes in business models that need to be addressed by organizations in order to respond to competition. Although there is a need to develop strategies for upcoming transformations, organizational change literature did not turn to the specific change related to the new technology yet. This work aims at investigating IoT-related organizational change by identifying and classifying different change types. It therefore combines the methodological approach of grounded theory with a discussion and classification of identified change informed by a structured literature review of organizational change literature. This includes a meta-analysis of case studies using a qualitative, exploratory coding approach to identify categories of organizational change related to the introduction of IoT. Furthermore a comparison of the identified categories to former technology-related change is provided using the example of Electronic Business (e-business), Enterprise Resource Planning (ERP) systems, and Customer Relationship Management (CRM) systems. As a main result, this work develops a comprehensive model of IoT-related business change. The model presents two main themes of change indicating that personal smart things will transform businesses by means of using more personal devices, suggesting and scheduling actions of their users, and trying to avoid hazards. At the same time, the availability of information in organizations will further increase to a state where information is available ubiquitously. This will ultimately enable accessing real time information about objects and persons anytime and from any place. As a secondary result, this work gives an overview on concepts of technology-related organizational change in academic literature.
The Internet of Things (IoT) is a fast-growing, technological concept, which aims to integrate various physical and virtual objects into a global network to enable interaction and communication between those objects (Atzori, Iera and Morabito, 2010). The application possibilities are manifold and may transform society and economy similarly to the usage of the internet (Chase, 2013). Furthermore, the Internet of Things occupies a central role for the realisation of visionary future concepts, for example, Smart City or Smart Healthcare. In addition, the utilisation of this technology promises opportunities for the enhancement of various sustainability aspects, and thus for the transformation to a smarter, more efficient and more conscious dealing with natural resources (Maksimovic, 2017). The action principle of sustainability increasingly gains attention in the societal and academical discourse. This is reasoned by the partly harmful consumption and production patterns of the last century (Mcwilliams et al., 2016). Relating to sustainability, the advancing application of IoT technology also poses risks. Following the precautionary principle, these risks should be considered early (Harremoës et al., 2001). Risks of IoT for sustainability include the massive amounts of energy and raw materials which are required for the manufacturing and operation of IoT objects and furthermore, the disposal of those objects (Birkel et al., 2019). The exact relations in the context of IoT and sustainability are insufficiently explored to this point and do not constitute a central element within the discussion of this technology (Behrendt, 2019). Therefore, this thesis aims to develop a comprehensive overview of the relations between IoT and sustainability.
To achieve this aim, this thesis utilises the methodology of Grounded Theory in combination with a comprehensive literature review. The analysed literature primarily consists of research contributions in the field of Information Technology (IT). Based on this literature, aspects, solution approaches, effects and challenges in the context of IoT and sustainability were elaborated. The analysis revealed two central perspectives in this context. IoT for Sustainability (IoT4Sus) describes the utilisation and usage of IoT-generated information to enhance sustainability aspects. In contrast, Sustainability for IoT (Sus4IoT) fo-cuses on sustainability aspects of the applied technology and highlights methods to reduce negative impacts, which are associated with the manufacturing and operation of IoT. Elaborated aspects and relations were illustrated in the comprehensive CCIS Framework. This framework represents a tool for the capturing of relevant aspects and relations in this context and thus supports the awareness of the link between IoT and sustainability. Furthermore, the framework suggests an action principle to optimise the performance of IoT systems regarding sustainability.
The central contribution of this thesis is represented by the providence of the CCIS Framework and the contained information regarding the aspects and relations of IoT and sustainability.
Diese Arbeit kombiniert zwei Themengebiete, welche in unserer Gesellschaft und Wirtschaft immer präsenter und aktueller werden. Das erste Thema beinhaltet die Nachhaltigkeit, welche sich in dieser Arbeit in die drei Säulen Ökologie, Ökonomie und Soziales untergliedert. Die erste Säule, Ökologie, beschäftigt sich hauptsächlich mit der Bekämpfung von Umweltproblemen und dem nachhaltigen Erhalt der Natur. Der Bereich Ökonomie befasst sich damit, die Ressourcen nachhaltig zu nutzen, um ein langfristiges Erzielen von wirtschaftlichen Erträgen zu gewährleisten. Die letzte Säule hat den Zweck die Soziale Nachhaltigkeit zu fördern, indem der gesellschaftliche Zusammenhalt gesichert und die Chance auf Arbeit ermöglicht wird, um gleichzeitig für gute Arbeitsbedingungen zu sorgen. Alle drei Säulen sind daher auch für Unternehmen relevant und sollten von diesen stetig beachtet werden, um eine sogenannte unternehmerische Nachhaltigkeit umzusetzen. Zur Unterstützung dieser Umsetzung, soll hier das zweite Thema hinzugezogen werden, das sogenannte Internet of Things. Das Internet of Things gewinnt, wie auch das Thema Nachhaltigkeit, zunehmend an Bedeutung und bietet viele Vorteile zur Unterstützung nachhaltiger Unternehmen. Dabei sollen immer mehr Geräte zu intelligenten Geräten gewandelt werden um eine Integration in ein Informationsnetzwerk zu gewährleisten. Dort können gesammelte Daten sinnvoll analysiert und genutzt werden, wodurch viele Bereiche effizienter gestaltet und viele Handlungen erleichtert werden können.
Aufbauend auf diesen zwei Themengebiete werden, im weiteren Verlauf dieser Arbeit, IoT- Technologien vorgestellt, die der Unterstützung, in den Bereichen Ökologie, Ökonomie und Soziales, von Unternehmen dienen. Zu den aufgezeigten Technologien werden anschließend Beispiele präsentiert und, wenn vorhanden, auch die jeweiligen Anbieter.
Da eine Nutzung von IoT-Technologien nicht nur von Vorteil ist, sondern auch Herausforderungen mit sich bringt, werden diese abschließend aufgezeigt. Diesen Herausforderungen gilt es sich seitens der Unternehmen, der Gesellschaft und auch der Politik zu stellen, um eine effiziente Nutzung zu ermöglichen.
The purpose of this research is to examine various existing cloud-based Internet of Things (IoT) development platforms and evaluate one platform (IBM Watson IoT) in detail using a use case scenario. Internet of Things IoT is an emerging technology that has a vision of interconnecting the virtual world (e.g. clouds, social networks) and the physical world (e.g. device, cars, fridge, people, animals) through the Internet technology. For example, the IoT concept of smart cities which has the objectives to improve the efficiency and development of business, social and cultural services in the city, can be achieved by using sensors, actuators, clouds and mobile devices (IEEE, 2015). A sensor (e.g. temperature sensor) in the building (global world) can send the real-time data to the IoT cloud platform (virtual world), where it can be monitored, stored, analysed, or used to trigger some action (e.g. turn on the cooling system in the building if temperature exceeds a threshold limit). Although, the IoT creates vast opportunities in different areas (e.g. transportation, healthcare, manufacturing industry), it also brings challenges such as standardisation, interoperability, scalability, security and privacy. In this research report, IoT concepts and related key issues are discussed.
The focus of this research is to compare various cloud-based IoT platforms in order to understand the business and technical features they offer. The cloud-based IoT platforms from IBM, Google, Microsoft, PTC and Amazon have been studied.
To design the research, the Design Science Research (DSR) methodology has been followed, and to model the real-time IoT system the IOT-A modelling approach has been used.
The comparison of different cloud based IoT development platforms shows that all of the studied platforms provide basic IoT functionalities such as connecting the IoT devices to the cloud based IoT platform, collecting data from the IoT devices, data storage and data analytics. However, the IBM’s IoT platform appears to have an edge over the other platforms studied in this research because of the integrated run-time environment which also makes it more developer friendly. Therefore, IBM Watson IoT for Bluemix is selected for further examination of its capabilities. The IBM Watson IoT for Bluemix offerings include analytics, risk management, connect and information management. A use case was implemented to assess the capabilities that IBM Watson IoT platform offers. The digital artifacts (i.e. applications) are produced to evaluate the IBM’s IoT solution. The results show that IBM offers a very scalable, developer and deployment friendly IoT platform. Its cognitive, contextual and predictive analytics provide a promising functionality that can be used to gain insights from the IoT data transmitted by the sensors and other IoT devices.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
The impact of innovation in order to secure a company- existence is increasing. Especially in the field of information and communication systems, modified conditions, reduced product life cycles (in some markets e.g. in the software market down to a few months), and increased competition force many companies to adapt their innovation speed. Long-term profit will just be obtained by those companies that will manage to consolidate or further to enlarge their competitive position with technological innovation. The increasing relevance of new developments requires a separate treatment of technological innovations and demands for a technology and innovation management. Not every innovation is thereby a result of a single, spontaneous idea. Many innovations evolve from the integration or combination of already existing technologies. Especially in markets with insignificant growing rates, this kind of innovation is quite important. The purpose of this thesis is the identification of existing deficiencies within established recommendations for a strategic technology and innovation management concerning technological integration. Based on the technological innovation, a possibility for the exposure to the developed innovations will be formulated. Finally, this thesis provides an own approach about this kind of innovation that will be examined.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
In the last few years the Internet of things has gained increased attention from authors as well as companies due to its innovation potential. The rising interest in the Internet of Things has also affected the logistics, which currently suffers from the effects of the globalization and the ever-increasing competitive pressure. Thus, there are efforts to discover how the logistics can profit from the use of IoT concepts, ideas and technologies to help it overcome its challenges. This research study focuses on the identification of these efforts and the corresponding research for logistics processes. For that purpose the researcher explored current literature referring to this topic. The final outcome of this paper is a structured overview of the identified IoT use-cases, their corresponding technologies and devices and finally their affected stakeholders. Whether the expectations regarding the IoT implementation in logistics processes are met, how companies can profit from these use-cases and which problems potentially arise by using IoT devices and technologies in logistics are answered at the end of this paper.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
Within the field of Business Process Management, business rules are commonly used to model company decision logic and govern allowed company behavior. An exemplary business rule in the financial sector could be for example:
”A customer with a mental condition is not creditworthy”. Business rules are
usually created and maintained collaboratively and over time. In this setting,
modelling errors can occur frequently. A challenging problem in this context is
that of inconsistency, i.e., contradictory rules which cannot hold at the same
time. For instance, regarding the exemplary rule above, an inconsistency would
arise if a (second) modeller entered an additional rule: ”A customer with a mental condition is always creditworthy”, as the two rules cannot hold at the same
time. In this thesis, we investigate how to handle such inconsistencies in business
rule bases. In particular, we develop methods and techniques for the detection,
analysis and resolution of inconsistencies in business rule bases
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Die vorliegende Arbeit beschäftigt sich mit den Nutzenpotentialen des GeoPortal.rlp. Hierzu werden zwei empirische Studien erhoben. Die erste Studie ist eine Nutzerumfrage bezüglich des Portals. Die zweite Studie besteht aus Experteninterviews um potentielle Kooperationspartner zu identifizieren. Aus den Ergebnissen der beiden Studien werden Handlungsempfehlungen abgeleitet.
The thesis at hand evaluates Open Source Business Process Management (BPM) Systems in the context of the R4eGov1 Project. The provision of concepts and tools to support and enable interoperability in pan-European networks of pubic administrations is one of the major objectives that R4eGov is aiming at. Thereby a strong focus lies on the interoperability of cross-organizational processes from the viewpoint of modeling, execution and monitoring. BPM can increase the effectiveness and efficiency of cross-organizational processes by restructuring them towards the needs of the entities involved. BPM is dependent on BPM systems that combine technologies of process modeling, business process analysis and execution along with their integration into adequate runtime environments and rule engines. The evaluation that is performed within the thesis investigates how far BPM systems can support several requirements of interoperability that have been developed by the R4eGov project. It also targets at analyzing those BPM system according to generic requirements on BPM and software tools. The investigation is build upon common BPM theories and standards for modeling business processes. It describes the origin and interdependencies of BPM and Workflow Management (WfM), highlighting similarities and differences from the technological and historical perspective. Moreover, it introduces web service standards and technologies that are used to build service-oriented architectures allowing greater flexibility in BPM. In addition the thesis introduces methods and best practices to evaluate software tools. It contains an evaluation framework for BPM tools that has been based on the software product evaluation standard ISO/IEC 14598. The evaluation framework comprises the definition of an R4eGov scenario and a catalogue of criteria for evaluating a set of selected Open Source BPM systems. The definition of the catalogue of criteria is build upon generic requirements on BPM systems and those that are specifically to R4eGov. The chosen methods and the core elements of the evaluation framework will be applied to the selected BPM systems Intalio BPMS,NetBeans IDE, and JBoss jBPM. Finally the results of the applied R4eGov scenario and of the applied catalogue of criteria are being discussed by highlighting individual strengths and weaknesses of the systems.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Issue of a catalog of criteria for the guarantee of the technical security of e-Commerce-web pages
(2007)
Das Ziel dieser Diplomarbeit ist es einen Kriterienkatalog zu erarbeiten, anhand dessen die technische Sicherheit von E-Commerce-Webseiten automatisiert überprüft werden kann. Dazu wird wie folgt vorgegangen. Nach einer Einleitung, die die Ausgangslage und die Motivation dieser Diplomarbeit zeigt, wird eine Aufbauanalyse von E-Commerce Webangeboten durchgeführt. Es werden gezielt die technischen Bausteine betrachtet, die für den Aufbau benötigt werden. Anschließend werden technische Schwachstellen (Fehlerquellen) von E-Commerce Webangeboten dargelegt. Der Schwerpunkt liegt dabei auf Programmierfehlern, Konfigurationsfehlern, Konzeptionsfehlern und Fehlern resultierend aus menschlichem Handeln. Parallel zu den Schwachstellen werden die jeweiligen Bedrohungspotentiale für einen E-Commerce Anbieter erörtert. Hierauf folgt eine kurze Vorstellung der generellen Risikopotentiale der verschiedenen Parteien, die bei einer E-Commerce Transaktion beteiligt sind. In dem darauf folgenden Schritt werden etablierte Kriterienkataloge vorgestellt. Diese werden kritisch bewertet, inwieweit sie befähigt sind zur Erstellung des angestrebten Kriterienkataloges beizutragen. Es werden klassische Kataloge wie das Orange Book, Common Criteria aber auch aktuelle Kataloge wie der BSI Grundschutzkatalog begutachtet. In dem nächsten Schritt werden die eigentlichen Kriterien in Listen einsortiert. Es wird differenziert analysiert "was" überprüft werden kann und "was" nicht. Daraufhin werden die Kriterien anhand von Schwachstellen in ein Ebenenmodell unterteilt. Das Ebenenmodell orientiert sich an Vorgaben des BSI und besteht aus der Protokollebene, der Dienstebene und der Anwendungsebene. Im Anschluss daran findet eine Gewichtung aller Kriterien anhand ihrer Automatisierbarkeit, ihrem Schadenspotenial und ihrer Verbreitung statt. Im vorletzten Schritt werden Lösungen vorgestellt, auf welche Weise der Kriterienkatalog automatisiert werden kann. Um einen Marktüberblick zu bieten werden verschiedene Web Vulnerability Scanner von kommerziellen Anbietern in Hinblick auf ihren Funktionsumfang, ihre Preisgestaltung und ihrer Bedienung verglichen. Der letzte Schritt dieser Diplomarbeit behandelt im Gegensatz zu den vorhergehenden Kapiteln weniger die theoretische Ebene. Er bietet stattdessen Anhand von Praxisszenarien dem Leser die Möglichkeit die Auswirkungen von Schwachstellen und Attacken auf reale Anwendungen nach zu vollziehen.
Seit dem 01. November 2005 ist in Deutschland der neue Reisepass erhältlich. Ein wesentliches Merkmal dieses neuen Passes ist die Einbindung von biometrischen Merkmalen, um den Besitzer des Dokumentes zu verifizieren. In anderen Bereichen, wie zum Beispiel der Abwicklung von Vielfliegern an einem Flughafen, halten ähnliche biometrisch gestützte Verfahren Einzug. Weitere Anwendungsmöglichkeiten wären die Absicherung des eigenen Arbeitsplatzes gegen den Zugriff unbefugter Personen, die Verfolgung von Straftätern oder die Verifikation eines Benutzers innerhalb des Internets. Der Wunsch nach Sicherheit in vielen Sektoren steigt zunehmend. Ein Weg, diese Sicherheit zu bieten, ergibt sich aus den Eigenschaften, die einen Menschen selbst als Unikat auszeichnen. Das Ziel dieser Studienarbeit besteht darin, sich das persönliche Verhalten eines Menschen im Umgang mit einer Tastatur zunutze zu machen, um eine Aussage treffen zu können, inwiefern eine Benutzereingabe mit einer vorher generierten Vergleichseingabe übereinstimmt. Der Schwerpunkt liegt dabei in der Erstellung eines Programms, welches in der Lage ist, verschiedene Parameter während einer Benutzereingabe zu sammeln, auszuwerten und zu sichern, um den entsprechenden Benutzer zu jeder beliebigen Zeit wieder anhand der abgespeicherten Informationen erkennen zu können. Dabei wird darauf geachtet, dass die entstehende Software auf möglichst vielen bestehenden Systemen ohne größere Probleme angewendet werden kann.
Abstract For a significant length of time, computer simulation programs have been the preferred tools of sociologists to analyse " thus confirm or refute " sociological theories, scenarios, presumptions and assumptions. Many different simulation platforms for various domains exist. The EmIL project aims to create a new simulation platform specifically to analyse norm emergence. This platform is divided into sections, thereby allowing the analysis of individual norm emergence: this is not currently possible, thus EmIL-S may represent a significant improvement over current simulation platforms. This diploma thesis describes the concepts behind the project and provides a prototype for the simulation program EmIL-S. The creation of the prototype and the underlying development process are described in detail. The experience gained during this process is analysed and described. In the course of this analysis, the malfunctions and errors within EmIL-S are explained; the solutions to these malfunctions and errors are noted, along with other proposed improvements. This diploma thesis can also be used as a helpful manual to build simulations within the simulation platform.
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Diese Diplomarbeit analysiert die Voraussetzungen für eine Simulation mit Normen, schlägt einen Coderahmen vor und stellt ein Modellierungs- und Codegenerierungs-Plugin für Eclipse, das auf einem Metamodell für Multi-Agenten-Simulationen basiert, zur Verfügung. Mit Hilfe des Plugins werden zwei Beispiele, die Normen aus verschiedenen Blickwinkeln betrachten, implementiert und diskutiert. Das erste ist das Kirk-Coleman-Modell, welches sich mit dem Verhalten von Menschen in einer 3-Personen-Gruppe beschäftigt. Das zweite Modell beinhaltet den fördernden Effekt von Sanktionierung auf Kooperation. Abschließend werden die erarbeiteten Lösungsansätze und Alternativen diskutiert und Vorschläge für das EU-Projekt "Emergence in the Loop" (EMIL) abgeleitet.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Social Network of Business Objects (SoNBO) is a concept for aggregating information distributed in he-terogeneous system landscapes and making it available via a single user interface. The central idea is to understand company information as a network (graph). There is already a SoNBO-Explorer which integrates the information of a customer relationship management system (CRM system). The challenge in configuring such an application is to identify the corporate network and thus find out how the stored data is linked within the company. A tool that can visualize the corporate network is helpful for this. In this thesis a selfdeveloped tool (SoNBO-Graph-App) is presented as a prototype, which realizes this visualization. With this application the configuration of the network in the SoNBO Explorer consisting of the merged data can be supported by carrying out that configuration on a graphical level. The prototype is connected to two different databases of a Customer Relationship Management (CRM) system and allows the aggregation of these data so that it is displayed as a graph in an overview. This gives the user a better insight and understanding of the relationship between the different data. This work is part of the longterm research project SoNBO, whose goal is a concept for the integration of information from different business application systems.
Zum Zeitpunkt der Erstellung der Diplomarbeit wird in der Forschungsgruppe "IT-Risk-Management" von Prof. Dr. Rüdiger Grimm an der Universität Koblenz-Landau eine neue Methode zur Unterstützung der Einhaltung des Urheberrechts entwickelt. Der als Usage Rights Management (URM) bezeichnete Ansatz soll Benutzer über ihre Nutzungsrechte an den, auf dem eigenen Rechner vorhandenen, digitalen Mediendateien informieren. Ein weiterer Bestandteil des URMs ist die Unterstützung des Nutzers mit den Dateien rechtskonform umzugehen. Das Ziel der vorliegenden Diplomarbeit ist es, ein System zum Datenaustausch zu entwerfen und prototypisch umzusetzen. Dieses System soll den Benutzern die Möglichkeit geben, sowohl unter URM stehende digitale Mediendateien von anderen Personen einsehen und downloaden zu können als auch eigene URM-Dateien anderen Benutzern zur Verfügung stellen zu können. Diese Anforderungen sollen mittels eines lizenzbewussten P2P-Client umgesetzt werden.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.