Institut für Wirtschafts- und Verwaltungsinformatik
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (35)
- Bachelorarbeit (32)
- Diplomarbeit (27)
- Masterarbeit (27)
- Dissertation (13)
- Studienarbeit (12)
- Buch (Monographie) (1)
Schlagworte
- Internet of Things (4)
- Logistik (4)
- computer clusters (4)
- Datenaustausch (3)
- Datenschutz (3)
- E-Partizipation (3)
- Evaluation (3)
- Instant Messaging (3)
- parallel algorithms (3)
- Beschaffung (2)
Institut
Predictive Process Monitoring setzt sich als Hilfsmittel zur Unterstützung der betrieblichen Abläufe in Unternehmen immer mehr durch Die meisten heute verfüg-baren Softwareanwendungen erfordern jedoch ein umfangreiches technisches Know-how des Betreibers und sind daher für die meisten realen Szenarien nicht geeignet. Daher wird in dieser Arbeit eine prototypische Implementierung eines Predictive Process Monitoring Dashboards in Form einer Webanwendung vorgestellt. Das System basiert auf dem von Bartmann et al. (2021) vorgestellten PPM-Camunda-Plugin und ermöglicht es dem Benutzer, auf einfache Weise Metriken, Visualisierungen zur Darstellung dieser Metriken und Dashboards, in denen die Visualisierungen angeordnet werden können, zu erstellen. Ein Usability-Test mit Testnutzern mit unterschiedlichen Computerkenntnissen wird durchgeführt, um die Benutzerfreundlichkeit der Anwendung zu bestätigen.
Remote Working Study 2022
(2022)
The Remote Working Study 2022 is focused on the transition to work from home (WFH) triggered by the stay at home directives of 2020. These directives required employees to work in their private premises wherever possible to reduce the transmission of the coronavirus. The study, conducted by the Center for Enterprise Information Research (CEIR) at the University of Koblenz from December 2021 to January 2022, explores the transition to remote working.
The objective of the survey is to collect baseline information about organisations’ remote work experiences during and immediately following the COVID-19 lockdowns. The survey was completed by the key persons responsible for the implementation and/or management of the digital workplace in 19 German and Swiss organisations.
The data presented in this report was collected from member organisations of the IndustryConnect initiative. IndustryConnect is a university-industry research programme that is coordinated by researchers from the University of Koblenz. It focuses on research in the areas of the digital workplace and enterprise collaboration technologies, and facilitates the generation of new research insights and the exchange of experiences among user companies.
Advanced Auditing of Inconsistencies in Declarative Process Models using Clustering Algorithms
(2021)
Um einen konformen Geschäftsprozess einer Organisation zu haben, ist es unerlässlich, eine konsistente Entscheidungsprozess sicherzustellen. Das Maß für die Überprüfung, ob ein Prozess konsistent ist oder nicht, hängt von den Geschäftsregeln eines Prozesses ab. Wenn der Prozess diesen Geschäftsregeln entspricht, ist der Prozess konform und effizient. Für große Prozesse ist dies eine ziemliche Herausforderung. Eine Inkonsistenz in einem Prozess kann sehr schnell zu einem nicht funktionierenden Prozess führen. Diese Arbeit präsentiert einen neuartigen Auditing-Ansatz für den Umgang mit Inkonsistenzen aus einer Post-Execution-Perspektive. Das Tool identifiziert die Laufzeitinkonsistenzen und visualisiert diese in Heatmaps. Diese Diagramme sollen Modellierern dabei helfen, die problematischsten Einschränkungen zu beobachten und die richtigen Umbauentscheidungen zu treffen. Die mit vielen Variablen unterstützten Modellierer können im Tool so eingestellt werden, dass eine andere Darstellung von Heatmaps angezeigt wird, die dabei hilft, alle Perspektiven des Problems zu erfassen. Die Heatmap sortiert und zeigt die Inkonsistenzmuster zur Laufzeit, sodass der Modellierer entscheiden kann, welche Einschränkungen sehr problematisch sind und eine Neumodellierung angehen sollten. Das Tool kann in angemessener Laufzeit auf reale Datensätze angewendet werden.
Enterprise collaboration platforms are increasingly gaining importance in organisations. Integrating groupware functionality and enterprise social software (ESS), they have substantially been transforming everyday work in organisations. While traditional collaboration systems have been studied in Computer Supported Cooperative Work (CSCW) for many years, the large-scale, infrastructural and heterogeneous nature of enterprise collaboration platforms remains uncharted. Enterprise collaboration platforms are embedded into organisations’ digital workplace and come with a high degree of complexity, ambiguity, and generativity. When introduced, they are empty shells with no pre-determined purposes of use. They afford interpretive flexibility, and thus are shaping and being shaped by and in their social context. Outcomes and benefits emerge and evolve over time in an open-ended process and as the digital platform is designed through use. In order to make the most of the platform and associated continuous digital transformation, organisations have to develop the necessary competencies and capabilities.
Extant literature on enterprise collaboration platforms has proliferated and provide valuable insights on diverse topics, such as implementation strategies, adoption hurdles, or collaboration use cases, however, they tend to disregard their evolvability and related multiple time frames and settings. Thus, this research aims to identify, investigate, and theorise the ways that enterprise collaboration platforms are changing over time and space and the ways that organisations build digital transformation capabilities. To address this research aim two different case study types are conducted: i) in-depth longitudinal qualitative case study, where case narratives and visualisations capturing hard-to-summarise complexities in the enterprise collaboration platform evolution are developed and ii) multiple-case studies to capture, investigate, and compare cross-case elements that contribute to the shaping of enterprise collaboration platforms in different medium-sized and large organisations from a range of industries. Empirical data is captured and investigated through a multi-method research design (incl. focus groups, surveys, in-depth interviews, literature reviews, qualitative content analysis, descriptive statistics) with shifting units of analysis. The findings reveal unique change routes with unanticipated outcomes and transformations, context-specific change strategies to deal with multiple challenges (e.g. GDPR, works council, developments in the technological field, competing systems, integration of blue-collar workers), co-existing platform uses, and various interacting actors from the immediate setting and broader context. The interpretation draws on information infrastructure (II) as a theoretical lens and related sociotechnical concepts and perspectives (incl. inscriptions, social worlds, biography of artefacts). Iteratively, a conceptual model of the building of digital transformation capabilities is developed, integrating the insights gained from the study of enterprise collaboration platform change and developed monitoring change tools (e.g. MoBeC framework). It assists researchers and practitioners in understanding the building of digital transformation capabilities from a theoretical and practical viewpoint and organisations implement the depicted knowledge in their unique digital transformation processes.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Die Umsetzung einer flexiblen Integration von Informationen aus verteilten und komplexen Informationssystemen stellt Unternehmen aktuell vor große Herausforderungen. Das im Rahmen dieser Dissertation entwickelte Ontologie-basierte Informationsintegrationskonzept SoNBO (Social Network of Business Objects) adressiert diese Herausforderungen. Bei einem Ontologie-basierten Konzept werden die Daten in den zu integrierenden Quellsystemen (z. B. betriebliche Anwendungssysteme) mithilfe eines Schemas (= Ontologie) beschrieben. Die Ontologie in Verbindung mit den Daten aus den Quellsystemen ergibt dann einen (virtualisierten oder materialisierten) Knowledge Graph, welcher für den Informationszugriff verwendet wird. Durch den Einsatz eines Schemas ist dieses flexibel auf die sich ändernden Bedürfnisse des Unternehmens bezüglich einer Informationsintegration anpassbar. SoNBO unterscheidet sich von existierenden Konzepten aus dem Semantic Web (OBDA = Ontology-based Data Access, EKG = Enterprise Knowledge Graph) sowohl im Aufbau der unternehmensspezifischen Ontologie (= Social Network of Concepts) als auch im Aufbau des nutzerspezifischen Knowledge Graphen (= Social Network of Business Objects) unter der Verwendung von sozialen Prinzipien (bekannt aus Enterprise Social Software). Aufbauend auf diesem SoNBO-Konzept wird das im Rahmen dieser Dissertation entwickelte SoNBO-Framework (nach Design Science Research) zur Einführung von SoNBO in einem beliebigen Unternehmen und die aus der Evaluation (im Unternehmen KOSMOS Verlag) gewonnenen Erkenntnisse vorgestellt. Die Ergebnisse (SoNBO-Konzept und SoNBO-Framework) basieren auf der Synthese der Erkenntnisse zu Ontologie-basierter Informationsintegration aus dem Status quo in Praxis und Wissenschaft: Für den Status quo in der Praxis wird mithilfe einer Tiefenfallstudie (Ingenieurbüro Vössing) die grundlegende Idee zu SoNBO in Form einer vom Fallstudienunternehmen entwickelten und dort seit Jahren eingesetzten Individualsoftware analysiert. Für den Status quo in der Wissenschaft wird das Ergebnis einer im Rahmen der Dissertation durchgeführten strukturierten Literaturanalyse zu Ontologie-basierten Informationsintegrationsansätzen präsentiert. Diese Dissertation liefert damit einen Beitrag sowohl für die Wissenschaft (Erkenntnisgewinn im Bereich der Ontologie-basierten Informationsintegrationsansätze für die Wirtschaftsinformatik u. a. durch die Entwicklung eines evaluierten Artefaktes) als auch für die Praxis (Schaffung eines evaluierten Artefaktes).
Im Kontext des Geschäftsprozessmanagements werden häufig sogenannte
Business Rules (Geschäftsregeln) als zentrales Artefakt zur Modellierung von
unternehmensinterner Entscheidungslogik sowie der Steuerung von Unternehmensaktivitäten eingesetzt. Eine exemplarische Geschäftsregel aus dem Finanzsektor wäre z.B. ”Ein Kunde mit geistiger Behinderung ist nicht geschäftsfähig”.
Business Rules werden hierbei meist von mehreren Mitarbeitern und über einen
längeren Zeitraum erstellt und verwaltet. Durch dieses kollaborative Arbeiten
kann es jedoch leicht zu Modellierungsfehlern kommen. Ein großes Problem in
diesem Kontext sind Inkonsistenzen, d.h. sich widersprechende Regeln. In Bezug
auf die oben gezeigte Regel würde beispielsweise eine Inkonsistenz entstehen,
wenn ein (zweiter) Modellierer eine zusätzliche Regel ”Kunden mit geistiger
Behinderung sind voll geschäftsfähig” erstellt, da diese beiden Regeln nicht zeitgleich einhaltbar sind. Die vorliegende Arbeit beschäftigt sich mit dem Umgang
mit solchen Inkonsistenzen in Business Rule-Repositorien. Hierbei werden im
Speziellen Methoden und Techniken zur Erkennung, Analyse und Behebung von
Inkonsistenzen in Regelbasen entwickelt.
Der Industriestandard Decision Model and Notation (DMN) ermöglicht seit 2015 eine neue Art der Formalisierung von Geschäftsregeln. Hier werden Regeln in sogenannten Entscheidungstabellen modelliert, die durch Eingabespalten und Ausgabespalten definiert sind. Zudem sind Entscheidungen in graphartigen Strukturen angeordnet (DRD Ebene), die Abhängigkeiten unter diesen erzeugen. Nun können, mit gegebenen Input, Entscheidungen von geeigneten Systemen angefragt werden. Aktivierte Regeln produzieren dabei einen Output für die zukünftige Verwendung. Jedoch erzeugen Fehler während der Modellierung fehlerhafte Modelle, die sowohl in den Entscheidungstabellen als auch auf der DRD Ebene auftreten können. Nach der Design Science Research Methodology fokus\-siert diese Arbeit eine Implementierung eines Verifikationsprototyps für die Erkennung und Lösung dieser Fehler während der Modellierungsphase. Die vorgestellten Grundlagen liefern die notwendigen theoretischen Grundlagen für die Entwicklung des Tools. Diese Arbeit stellt außerdem die Architektur des Werkzeugs und die implementierten Verifikationsfähigkeiten vor. Abschließend wird der erstellte Prototyp evaluiert.
In Anbetracht der wachsenden Zahl an gesetzlichen Regelungen, die Unternehmen betreffen, sollte ihnen die Möglichkeit geboten werden ihr Compliance Management durch Softwareunterstützung mithilfe von Regulationsmustern umzusetzen. Damit sie eine unternehmensinterne Effizienzsteigerung durchführen oder auf neue gesetzliche Regelungen schnell reagieren können, existieren Regulationsmuster, die Prozessfragmente strukturell und inhaltlich beschreiben. Derzeit existieren einige Forschungsbeiträge, die unterschiedliche Compliance Pattern diskutieren. Jedoch existiert zurzeit kein Katalog, der eine Liste von Regulationsmustern bereitstellt, die für Unternehmen von Bedeutung sind (Delfmann and Hübers, 2015). Die vorliegende Bachelorarbeit klassifiziert 80 Forschungsbeiträge hinsichtlich deren unterschiedlichen Ansätze von Compliance Pattern und stellt diese in einem Klassifikationszusammenhang dar. Zusätzlich werden die unternehmerischen Vorteile durch den Einsatz von Regulationsmuster dargelegt. Dafür wurde eine systematische Literaturanalyse vollzogen. Diese zeigt, dass vermehrt auf graphenbasierte Regulationsmuster in Kombination mit dem Überprüfungszeitpunkt während des Prozessdesigns zurückgegriffen wird. Im Anhang wird außerdem ein Katalog von 32 Compliance Pattern bereitgestellt, die in den analysierten Forschungsbeiträgen erfasst wurden.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.