Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (480)
- Ausgabe (Heft) zu einer Zeitschrift (359)
- Bachelorarbeit (276)
- Diplomarbeit (196)
- Masterarbeit (194)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1147)
- Englisch (553)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (337)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (178)
- Institut für Wirtschafts- und Verwaltungsinformatik (150)
- Institut für Informatik (147)
- Institut für Management (118)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (59)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Die digitale Transformation des öffentlichen Sektors und die Entwicklung geeigneter Um-setzungsmechanismen stellen gegenwärtig bedeutende Herausforderungen im Bereich des E-Government dar. Obwohl Deutschland im privaten Sektor zu den führenden Ländern im Bereich digitaler Angebote zählt, verlaufen die digitalen Veränderungsprozesse im öffentlichen Sektor nur langsam. Insbesondere im europäischen Vergleich bieten deutsche öffentliche Verwaltungen nur wenige digitale und interoperable Dienstleistungen an, sodass der Anschluss an eine behördenübergreifende digitale Transformation verhindert wird.
Diese Dissertation zielt darauf ab, die Gründe für das erschwerte Voranschreiten der digitalen Transformation im öffentlichen Sektor zu untersuchen und herauszufinden, warum Deutschland im Vergleich zu anderen europäischen Mitgliedstaaten keine signifikanten Fortschritte bei der Digitalisierung von Verwaltungsdienstleistungen erzielt. Des Weiteren wird schrittweise ein umfassendes Verständnis aufgebaut, warum die digitale Transforma-tion im öffentlichen Sektor nicht vorangetrieben, unterstützt oder angewendet wird, und welche positiven oder negativen Faktoren letztendlich einen organisationsübergreifenden Austausch verhindern.
Der Schwerpunkt dieser Dissertation liegt auf der organisatorischen und interdisziplinären Zusammenarbeit in soziotechnischen Systemen sowie deren Einfluss auf die digitale Transformation öffentlicher Verwaltungen. Die Untersuchung von Wissenschaft und Praxis stützt sich auf Grundlagen der qualitativen Sozialforschung sowie der qualitativen Inhaltsanalyse nach Mayring. Durch eine systematische Ableitung werden deduktive Kategorien gewon-nen und entlang der empirischen Untersuchung in den fünf Fallstudien durch weitere induktive Kategorien ergänzt.
Die identifizierten Phänomene werden in einem wissenschaftlich erklärenden Modell verankert und mithilfe des ganzheitlichen Betrachtungsansatzes und der Akteur-Netzwerk-Theorie beschrieben. Darauf aufbauend werden Lösungsansätze entwickelt, die die Einflussfaktoren entweder verhindern oder zumindest reduzieren können. Durch einen interdisziplinären Ansatz, der theoretische Grundlagen aus der Wirtschaftsinformatik, Verwaltungsinformatik/E-Government und der Organisationswissenschaft kombiniert, wird nicht nur ein umfassendes Verständnis der Problemsituation geschaffen, sondern auch Ansätze für die wissenschaftliche Beschreibung informatischer Phänomene durch sozial-konstrukti-vistische Ansätze entwickelt.
Bei der Entwicklung von Kunststoffbauteilen kommen in kontinuierlich zunehmendem Maße Simulationen zum Einsatz. Vor dem Hintergrund von steigenden Produktanforderungen als auch dem unausweichlichen Zwang zur Schonung von Ressourcen ist der erweiterte Einsatz von Simulationswerkzeugen wichtiger Teil des Lösungsweges. Zu den nutzbaren, aber in Bezug zu Realprozessen bisher wenig eingesetzten Methoden gehört die Molekulardynamik Simulation. Auf Grundlage dieser Methode können auf mikroskopischer Ebene die tatsächlichen physikalischen Abläufe, die bei der Verarbeitung von Kunststoffen im Prozess auftreten, sichtbar gemacht werden. In dieser Arbeit wird beleuchtet, wie Randbedingungen in Anlehnung an den Extrusionsblasformprozess den Werkstoff Polyethylen auf mikroskopischer Ebene beeinflussen. Hierzu wird ein mesoskopisches Modell (Coarse-Graining) zur Beschreibung des Polymers genutzt. Dieses Modell wird durch die Bestimmung von Materialkennwerten verifiziert. Es wird der uniaxiale Zugversuch auf der Mikroskala modelliert, um Größen wie beispielsweise Elastizitätsmodul, Streckspannung oder Querkontraktionszahl zu ermitteln. Ebenso werden thermische Kenngrößen, insbesondere zur Charakterisierung des Kristallisationsverhaltens, bestimmt. Ziel dieser Untersuchungen ist, Effekte, die bei dynamisch ablaufenden Dehnungs- bzw. Kristallisationsvorgängen stattfinden, mikroskopisch zu beobachten und zu quantifizieren. Die ermittelten Kennwerte liegen insbesondere für die thermischen Größen in dichter Nähe zu experimentellen Daten. Das Spannungs-Dehnungs Verhalten wird qualitativ mit guter Übereinstimmung mit dem realen Verhalten wiedergegeben. Die kurze Zeitskala, auf der sich die Simulationsmodelle befinden, hat jedoch mikromechanisch extremeres Verhalten zur Folge, als makroskopisch beobachtet wird. Durch Erweiterung der Modelle werden biaxiale Verstreckvorgänge, wie sie im Extrusionsblasformprozess beispielsweise während des Aufblasens des Vorformlings auftreten, nachgebildet. Die Betrachtung verschiedener Abkühlbedingungen, insbesondere unter Formzwang, ist in Anlehnung an den Realprozess weiterer Schwerpunkt der Untersuchungen. Die Analyse der biaxial verstreckten Modelle offenbart, dass Entschlaufungsvorgänge während des Verstreckens die weitere Entwicklung der Polymersysteme dominieren. Es gelingt, die Dynamik von Kristallisationsvorgängen in Abhängigkeit von Verstreckgrad und Abkühlbedingungen durch unterschiedliche Größen (Verteilung von Verschlaufungspunkten, lokale Orientierungen) zu quantifizieren. Die erzielten Resultate zeigen auf, dass es mittels vergröberten Molekulardynamik Simulationen möglich ist, das mikromechanische Verständnis von Vorgängen, die bei der Verarbeitung von Kunststoffen auftreten, signifikant zu erweitern.
The literature contains very few publications on the application of Process Mining methods for the analysis of event logs in Enterprise Collaboration Systems (ECS). This is not surprising because the analysis of digital support for collaborative work is extremely intricate due to various challenges relating to a lack of data access, poor data quality, unstructured processes and a lack of descriptive models. This article reports on the findings from an Action Design Research (ADR) project. The ADR team had access to a large instance of an operational ECS with more than 3000 users. The event log contains several million entries. Together with the platform’s operating team, intensive research was carried out over a period of six years on ways of analysing user activities on the platform. Several cycles were run to develop new methods and computational techniques to decipher the event logs and meaningfully describe the processes recorded in them. Thanks to the close collaboration between the researchers and the operators of the collaboration platform, it was possible to compare the real-world processes carried out in the platform with the processes discovered using a novel method for Social Process Mining (SPM). The result is a pattern analysis that discovers patterns in processes that have a high degree of correspondence with the real-world scenes of collaborative work. The research work has now reached a point where other software products are included (multi-system analysis) and a catalogue of collaborative work situations (scenes) has been developed to describe the process patterns that result from the Process Mining and graph-based analysis techniques.
Cross Cultural Adaptation of Design Thinking in Entrepreneurship Higher Education in Indonesia
(2024)
Entrepreneurship and entrepreneurship education have expanded together, and their conceptual and methodological challenges do not prevent the implementation of entrepreneurial education in educational contexts. The desire for a global workforce that can handle uncertainties and solve problems that cannot be solved by pure analytical inquiry drives the rapidly expanding number of educational programs and activities that are design-based. A growing number of educational programs for entrepreneurs increasingly incorporate design-based methods. However, design thinking-based theoretical assumptions may also be lacking. Despite growing academic interest in design thinking and entrepreneurship education, little is known about design thinking in higher entrepreneurship education, especially in Eastern nations. A Western teaching method, entrepreneurial design thinking may be adapted to many cultures. In this instance, the West has established entrepreneurship education as a respectable study subject and teaching practice in higher education over the past 40 years. The Eastern nations' occurrence varies, including Indonesia. Indonesia is an intriguing research subject since it has over 50% youth due to its abundant natural resources. However, it needs more opportunity-based entrepreneurs and requires assistance in implementing entrepreneurship education with a more innovative, design-based, and successful method. Entrepreneurial design thinking fulfills this demand. Indonesian students and teachers' norm-based attitudes and cultural mindsets towards a new western creative method may hinder entrepreneurial design thinking's acceptance. The literature review found that Indonesian university students are collaborative, compassionate, and practical, like design thinkers. However, they may also be risk-averse, self-restrained, and dependent on teachers as stereotypical Asians. Classroom space, educators' design thinking competence, and university or institution support are further barriers. Additional study into these challenges is needed to adapt design thinking to Indonesian entrepreneurial higher education culturally.
Based on the above research needs, the purpose of this research endeavor is to look into the cultural nuances of the design thinking technique for entrepreneurial higher education and postulate how it could be adapted to other cultures, especially in Indonesia. This thesis uses deductive and qualitative case-study research methods. In particular, the latter used thematic analysis (Braun & Clarke, 2006; Terry & Hayfield, 2021) as the data analysis technique to provide a means and tools for understanding from interviews, class observation, and literature studies. Since this thesis follows the constructivist-relativist research paradigm, it explores contextual and cultural differences in Indonesian entrepreneurship education and its potential and obstacles to adapt the Western teaching methodology of entrepreneurial design thinking in higher education. In summary, this study searches for elements that might aid or hinder the cross-cultural adaption of entrepreneurial design thinking. This research wants to understand how cross-cultural adaptability fits into entrepreneurial design thinking research, especially for Indonesia. This thesis aims to provide new theoretical insights and practical advice on adapting entrepreneurial design thinking from Western to Eastern cultures.
From the findings, this thesis concluded at least seven educational value differentials before adaptation from the exhaustive literature and case study evaluations. For Indonesian entrepreneurship higher education institutions to use entrepreneurial design thinking, they must consider educational culture, technological infrastructure, language, primary audience, learning and teaching style, reasoning patterns, and social-cultural environment. This study provides four practical adaptation recommendations: socialization, externalization, combination, and internalization. Finally, this research demonstrated that cross-cultural adaption of entrepreneurial design thinking in Indonesia might be difficult but worthwhile. This thesis' case study, "School of Business Management – Bandung Institute of Technology (SBM ITB)", showed that Indonesian entrepreneurial higher education might use design thinking as a teaching approach. All stakeholders must improve internally and publicly. Thus, this study recommended integrating most Indonesian higher education institutions' entrepreneurship teaching approaches with a "student-centered" approach that stresses business mentorship, uses design thinking tools and processes, and links them to students' entrepreneurial initiatives.
To summarize, this research contributes to the field since it draws on and combines the findings of several other fields of study, including entrepreneurial education, design thinking, and cross-cultural adaptation. This study stepped out of the "usual and proper" pedagogical ruts to investigate "non-human" cross-cultural adaptability. It has attempted to apply these ideas to a real-world, unique case study in a developing nation (in this case, Indonesia).
Diese Bachelorarbeit befasst sich mit der Konzeption und Implementierung einer prototypischen Emulator-Software, mit der eine umfangreiche Palette klassischer Game Boy-Spiele auf einem herkömmlichen Desktop-Computer gespielt werden kann. Die Entwicklung einer solchen Anwendung ist eine technisch anspruchsvolle Aufgabe, die durch verschiedene Herausforderungen, wie die korrekte Interpretation von Maschinenbefehlen, der Emulation von Grafik sowie der Spielbarkeit und Korrektheit geprägt ist. Da keine zugänglichen offiziellen Dokumente über die Game BoyHardware vorliegen, wurde der Emulator auf Basis des Wissens von Game BoyEnthusiasten konzipiert. Dennoch konnte eine Anwendung entwickelt werden, welche bereits eine große Auswahl an Spielen ausführen kann. Die Korrektheit der implementierten Komponenten wurde mittels Testprogrammen verifiziert.
Enterprise Collaboration Systems (ECS) sind essentielle Werkzeuge für die Unterstützung der digitalen Zusammenarbeit und ad hoc Projektarbeit in Unternehmen. Mit der zunehmenden Nutzung von ECS steigen auch die Bedeutung und der Bedarf an Analysen zur Schaffung eines verbesserten Verständnisses von digitaler Arbeit. Da Kollaboration sich regelmäßig über mehr als ein System erstreckt, stellt die Heterogenität der Daten verschiedener Systeme für Analysen eine Herausforderung dar, insbesondere weil plattformübergreifende Nutzungsmuster nicht ohne Weiteres nachverfolgbar und vergleichbar sind. Daher wurde die „Collaborative Actions on Documents Ontology“ (ColActDOnt) entwickelt, um Konzepte aus ECS (z. B. Events und Dokumente) einheitlich zu beschreiben. Basierend auf der ColActDOnt wurde ein Datastore implementiert, in welchem die Daten verschiedener Systeme in der Struktur der Ontologie gespeichert werden. Durch den ontologiebasierten Datastore stehen die Daten für Analysen in einheitlicher Form zur Verfügung. In die Datenebene wurden Daten aus dem ECS HCL Connections (CNX), welches somit das initiale Quellsystem darstellt, importiert. Mittels der ColActDOnt wurde außerdem eine abstrakte Ontologieebene mit den Elementen der Ontologie geschaffen. Die Elemente beider Ebenen sind über Beziehungen innerhalb einer Graphdatenbank miteinander und untereinander verknüpft.
Der ontologiebasierte Datenzugriff ermöglicht es dem Benutzer ohne Kenntnisse über die Datenstrukturen des Quellsystems, lediglich mit Domänenwissen über die ColActDOnt, Inhalte abzufragen.
Der Datastore ist als Graphdatenbank (Neo4j) implementiert und somit können Abfragen nativ als Graphenstrukturen visualisiert werden. Weiterhin kann der Prototyp an Business Intelligence Tools wie Microsoft PowerBI angebunden werden und bietet somit die Möglichkeit für tiefergehende Analysen. Die erste Version des Datastores stellt einen wichtigen Schritt in Richtung der Harmonisierung von Trace Data aus ECS dar. In Zukunft sollen weitere Kollaborationssysteme an den Datastore angeschlossen werden, um systemübergreifende Analysen von komplexen Kollaborationsplattformen zu ermöglichen.
Die politischen Ziele zur CO2-Reduzierung in industriellen Prozessen sorgen für einen technologischen Wandel im Bereich der Roheisenerzeugung. Anstelle des Hochofenverfahrens wird Roheisen zukünftig über Direktreduktionsprozesse erzeugt. Diese werden derzeit mit Erdgas betrieben und sollen zur Einhaltung der Klimaziele auf Wasserstoffbetrieb umgestellt werden. In dieser Arbeit wurde der Einfluss von wasserstoffenthaltenden Atmosphären auf derzeit verwendete feuerfeste Werkstoffe aus dem System Al2O3-SiO2 untersucht. Zu diesem Zweck wurde ein Experiment entwickelt, mit dem unter realitätsnahen Prüfbedingungen eine Auslagerung der Feuerfestmaterialien im Labor stattfinden konnte. Unter Berücksichtigung der Atmosphäre, der Temperatur und des Probenmaterials wurden vielseitige praxisnahe Auslagerungsversuche durchgeführt. Durch Anwendung einer umfassenden Analysestrategie konnten an den Materialien relevante Korrosionseffekte in Abhängigkeit von der Gaszusammensetzung beschrieben werden. Die Prüftemperatur lag dabei im Bereich von 716 °C < T < 1150 °C. Zur Untersuchung der Korrosionseffekte wurden physikalische und chemisch-mineralogische Prüfmethoden verwendet. Ergänzend wird die Intensität der Korrosionseffekte basierend auf den verwendeten Gaszusammensetzungen beschrieben. Insbesondere reine Wasserstoffatmosphären führten zu einer starken Gaskorrosion, das Vorliegen von Wasserdampf hemmt die chemischen Reaktionen hingegen. Durch die Mischung von Methan und Wasserstoff kann eine aggressive H2 / CO-Atmosphäre entstehen, bei der es zur Bildung von festem Kohlenstoff kommen kann. Dieses Phänomen verändert die möglichen Schadensursachen für das Feuerfestmaterial, auch der Kristallisationsdruck von Kohlenstoff kann im Gefüge der Feuerfestkeramiken zum Materialversagen beitragen. Des Weiteren konnte durch Kopplung von bildgebenden Analyseverfahren und Elementbestimmung die Folgen der Korrosionsreaktionen beschrieben werden. Es zeigte sich, dass es im Gegensatz zum Meinungsbild innerhalb des allgemeinen Standes der Technik, nicht zu einer ausschließlichen Abnahme des SiO2-Gehaltes kam. In den untersuchten, industriellen Materialien liefen mehrere Reaktionen ab, die lokal zum chemischen Angriff auf SiO2 führten (silikatische Glasphase) und parallel ein Auskristallisieren von Cristobalit bewirkten. Als primäre Korrosionsreaktion im Bereich von 716 °C < T < 1150 °C kann in reiner Wasserstoffatmosphäre der chemische Angriff von Wasserstoff auf die silikatische Glasphase definiert werden. Hinzu wurde die Reaktionskinetik in Abhängigkeit der Temperatur experimentell untersucht und beschrieben. Auf Basis dieser Analysen können Materialeigenschaften definiert werden, die sich für den zukünftigen Einsatz definierter Feuerfestqualitäten innerhalb von Reduktionsprozessen besonders eignen.
Zweiunddreißigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz
Achtundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus sowie das Lehramt an Gymnasien an der Universität Koblenz
Neunundzwanzigste Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz und der Hochschule Koblenz
Vierte Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für die Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz
Gemeinsame Prüfungsordnung für den Masterstudiengang Master of Engineering „Ceramic Science and Engineering“ an der Hochschule Koblenz und der Universität Koblenz (Kooperativer Masterstudiengang)
Wahlordnung der Studierendenschaft der Universität Koblenz
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz für das Studienjahr 2024/2025
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz
Zweite Ordnung zur Änderung Ordnung für die Prüfung im Masterstudiengang Applied Physics an der Hochschule Koblenz und der Universität Koblenz (Kooperativer Masterstudiengang)
The findings of this study demonstrate that the Random Forest (RF) algorithm provided the most accurate predictions in comparison with other boosting machine learning algorithms. Key drivers of energy consumption identified through XAI techniques such as SHAP and LIME include energy star rating, facility type, and floor area. These XAI methods helped enhance the interpretability of the models, making them more accessible for non-expert users, such as building managers and policymakers. By leveraging machine learning and XAI, this research provides a transparent and actionable framework for optimizing building energy efficiency and supporting sustainable energy management.
In the realm of education, the timely identification of students who need further support to succeed in their respective courses, plays a pivotal role in fostering aca- demic success and preventing potential setbacks. This thesis thus aims to contribute to this critical area by focusing on the development of predictive models for the early detection of at-risk students in their academic journey. The primary dataset used for this thesis is provided by kaggle, encompassing diverse student informa- tion, including demographic, socio-economic factors, and academic performance categorized into three different classes, presenting an imbalanced nature that poses a significant challenge.
Thus the primary objectives of this thesis are to address the problem of imbal- anced data, explore and assess the performance of multiple classification methods such as, logistic regression, decision tress, random forests and support vector ma- chines (SVM), neural networks, and create a comprehensive end-to-end processing pipeline which includes the systematic steps of balancing the data, model training and evaluation. Additionally the developed pipeline is tested on two additional datasets to assess its generalizability and robustness. This research aims to provide a comprehensive understanding of addressing the challenges of imbalanced data and how different classification methods and regression can be optimally applied to early detection of at-risk students. The findings are expected to aid educational institutions in supporting their students and enhancing academic success through timely interventions.
Key findings demonstrates the robustness of SVM SMOTE balancing technique acro- ss the datasets used in this study, where it consistently achieved best results when combined with various models, particularly highlighting the success of the combi- nation of Random Forest model with SVM SMOTE, and Decision tree model with SVM SMOTE in achieving notable accuracy rates. This emphasizes the adaptability of the balancing techniques employed, providing a strong foundation for predictive intervention educational settings.
Die vorliegende Dissertation hat sich unter dem Titel >>„Woher soll ich denn vorher wissen, ob ich den Job liebe?“ – Eine qualitative Längsschnitt-Studie zur Differenzierung der Phasenstruktur vorliegender Modelle beruflicher Orientierung anhand von Jugendlichen aus drei kontrastierenden institutionellen Ausgangslagen<< dem Erkenntnisinteresse gewidmet, Modelle zur beruflichen Orientierung anhand eines ethnografischen Zugangs aus der Perspektive unterschiedlicher institutioneller Settngs weiterzuentwickeln, um der Komplexität gegenwärtiger Lebenswelten besser gerecht zu werden. Dabei wurde unter Betrachtung von Berufsorientierungsaspekten als Forschungsgegenstand sowie unter Betrachtung der Gestalt der Berufsorientierung als Forschungsfeld der Fragestellung nachgegangen, inwiefern sich das in der Debatte zentrale Sechs-Phasenmodell der Berufswahl nach Herzog et. al. (2006) im Licht ethnografischer Forschung, welche die Perspektiven Jugendlicher eines allgemeinbildenden Gymnasiums, eines beruflichen Gymnasiums sowie eines Freiwilligen Sozialen Jahres umfasst, ausdifferenzieren lässt. Dabei wurde die Grounded Theory-Methodologie als Forschungsstil zugrunde gelegt, der wiederum im Rahmen der Datenerhebung die Ethnografie, im Rahmen der Datenanalyse die Grounded Theory untergeordnet wurde.
Als zentrales Untersuchungsergebnis lässt sich zum einen aufführen, dass das bestehende Berufswahlmodell deutlich modifiziert, ausdifferenziert und folglich erweitert werden konnte. Mit dieser Erweiterung ist eine Spezifikation dahingehend verbunden, dass viele Komponenten und Ebenen hinzugekommen sind, die bei dem ursprünglichen Modell nicht bedacht waren, im Gegenzug jedoch auch solche Komponenten gestrichen und als irrelevant deklariert wurden, die sich anhand der Untersuchungsdaten nicht zu bestätigen wussten. So konnte ein Neun-Phasenmodell der Berufsorientierung in Gestalt eines Ablaufdiagramms
entstehen, das den Prozessverlauf beruflicher Orientierung anschaulich in Phasen eingebettet darzustellen vermag. Dabei ist es gelungen, das Modell derart auszugestalten, dass es institutionsübergreifend anwendbar und nicht lediglich auf eine bestimmte institutionelle Ausgangslage beschränkt ist. Zum anderen kann statuiert werden, dass das vorliegende neunphasige Modell vor allem Phasen der Orientierungslosigkeit und der Desorientierung, des Entscheidungsaufschubs, der Überprüfung und der Überbrückung sowie der Um- und Neuorientierung explizit zu nutzen weiß, um diejenigen Situationen zu berücksichtigen, die den beruflichen Orientierungsprozess der Untersuchungsteilnehmenden aus allen drei
institutionellen Ausgangslagen maßgeblich geprägt haben.
Assessing ChatGPT’s Performance in Analyzing Students’ Sentiments: A Case Study in Course Feedback
(2024)
The emergence of large language models (LLMs) like ChatGPT has impacted fields such as education, transforming natural language processing (NLP) tasks like sentiment analysis. Transformers form the foundation of LLMs, with BERT, XLNet, and GPT as key examples. ChatGPT, developed by OpenAI, is a state-of-the-art model and its ability in natural language tasks makes it a potential tool in sentiment analysis. This thesis reviews current sentiment analysis methods and examines ChatGPT’s ability to analyze sentiments across three labels (Negative, Neutral, Positive) and five labels (Very Negative, Negative, Neutral, Positive, Very Positive) on a dataset of student course reviews. Its performance is compared with fine tuned state-of-the-art models like BERT, XLNet, bart-large-mnli, and RoBERTa-large-mnli using quantitative metrics. With the help of 7 prompting techniques which are ways to instruct ChatGPT, this work also analyzed how well it understands complex linguistic nuances in the given texts using qualitative metrics. BERT and XLNet outperform ChatGPT mainly due to their bidirectional nature, which allows them to understand the full context of a sentence, not just left to right. This, combined with fine-tuning, helps them capture patterns and nuances better. ChatGPT, as a general purpose, open-domain model, processes text unidirectionally, which can limit its context understanding. Despite this, ChatGPT performed comparably to XLNet and BERT in three-label scenarios and outperformed others. Fine-tuned models excelled in five label cases. Moreover, it has shown impressive knowledge of the language. Chain-of-Thought (CoT) was the most effective technique for prompting with step by step instructions. ChatGPT showed promising performance in correctness, consistency, relevance, and robustness, except for detecting Irony. As education evolves with diverse learning environments, effective feedback analysis becomes increasingly valuable. Addressing ChatGPT’s limitations and leveraging its strengths could enhance personalized learning through better sentiment analysis.
Exploring Academic Perspectives: Sentiments and Discourse on ChatGPT Adoption in Higher Education
(2024)
Artificial intelligence (AI) is becoming more widely used in a number of industries, including in the field of education. Applications of artificial intelligence (AI) are becoming crucial for schools and universities, whether for automated evaluation, smart educational systems, individualized learning, or staff support. ChatGPT, anAI-based chatbot, offers coherent and helpful replies based on analyzing large volumes of data. Integrating ChatGPT, a sophisticated Natural Language Processing (NLP) tool developed by OpenAI, into higher education has sparked significant interest and debate. Since the technology is already adapted by many students and teachers, this study delves into analyzing the sentiments expressed on university websites regarding ChatGPT integration into education by creating a comprehensive sentiment analysis framework using Hierarchical Residual RSigELU Attention Network (HR-RAN). The proposed framework addresses several challenges in sentiment analysis, such as capturing fine-grained sentiment nuances, including contextual information, and handling complex language expressions in university review data. The methodology involves several steps, including data collection from various educational websites, blogs, and news platforms. The data is preprocessed to handle emoticons, URLs, and tags and then, detect and remove sarcastic text using the eXtreme Learning Hyperband Network (XLHN). Sentences are then grouped based on similarity and topics are modeled using the Non-negative Term-Document Matrix Factorization (NTDMF) approach. Features, such as lexico-semantic, lexico structural, and numerical features are extracted. Dependency parsing and coreference resolution are performed to analyze grammatical structures and understand semantic relationships. Word embedding uses the Word2Vec model to capture semantic relationships between words. The preprocessed text and extracted features are inputted into the HR-RAN classifier to categorize sentiments as positive, negative, or neutral. The sentiment analysis results indicate that 74.8% of the sentiments towards ChatGPT in higher education are neutral, 21.5% are positive, and only 3.7% are negative. This suggests a predominant neutrality among users, with a significant portion expressing positive views and a very small percentage holding negative opinions. Additionally, the analysis reveals regional variations, with Canada showing the highest number of sentiments, predominantly neutral, followed by Germany, the UK, and the USA. The sentiment analysis results are evaluated based on various metrics, such as accuracy, precision, recall, F-measure, and specificity. Results indicate that the proposed framework outperforms conventional sentiment analysis models. The HR-RAN technique achieved a precision of 98.98%, recall of 99.23%, F-measure of 99.10%, accuracy of 98.88%, and specificity of 98.31%. Additionally, word clouds are generated to visually represent the most common terms within positive, neutral, and negative sentiments, providing a clear and immediate understanding of the key themes in the data. These findings can inform educators, administrators, and developers about the benefits and challenges of integrating ChatGPT into educational
settings, guiding improvements in educational practices and AI tool development.
Die Untersuchung der Erwartungen und Anforderungen der Generation Z an Führungskräfte ist sowohl praktisch als auch wissenschaftlich von hoher Relevanz. Praktisch gesehen erfordert der Fachkräftemangel in Deutschland und die veränderten Vorstellungen der Generation Z ein Umdenken bei Führungskräften. Wissenschaftlich besteht eine Forschungslücke, da traditionelle Führungstheorien oft nicht mehr zeitgemäß sind und spezifische Studien zu den Präferenzen der Generation Z fehlen.
Ziel der Masterthesis ist es, diese Lücke durch qualitative Experteninterviews zu schließen und neue Erkenntnisse über die Ansichten der Generation Z zu gewinnen. Dabei sollen Unternehmen unterstützt werden, junge Fachkräfte langfristig zu gewinnen.
Die Methode umfasst eine qualitative Studie mit 14 Interviewpartnern, darunter Mitarbeiter der Generation Z und Führungskräfte. Die semistrukturierten Interviews wurden transkribiert und mithilfe der qualitativen Inhaltsanalyse nach Mayring und der Software MAXQDA ausgewertet. Induktiv wurden Kategorien aus dem Material gebildet.
Die Ergebnisse zeigen, dass die Generation Z authentische, empathische Führung und klare Perspektiven erwartet. Hauptkategorien wie Organisation, soziale Kompetenz, Teamfähigkeit und zukunftsfähige Wege wurden identifiziert. Beide Gruppen betonen die Bedeutung von Befähigung, regelmäßiger Kommunikation, Fairness und Transparenz.
Praktisch implizieren die Ergebnisse, dass Unternehmen praktische Maßnahmen und Weiterentwicklungen vornehmen müssen, um den Bedürfnissen der jungen Generation gerecht zu werden. Für die Forschung bietet die Studie eine Basis für weiterführende quantitative Untersuchungen und ein konzeptionelles Framework zur Darstellung der wichtigsten Kategorien und ihrer Zusammenhänge.
Recent studies show that biofilm substances in contact with nanoplastics play an important role in the aggregation and sedimentation of nanoplastics. Consequences of these processes are changes in biofilm formation and stability and changes in the transport and fate of pollutants in the environment. Having a deeper understanding of the nanoplastics–biofilm interaction would help to evaluate the risks posed by uncontrolled nanoplastic pollution. These interactions are impacted by environmental changes due to climate change, such as, e.g., the acidification of surface waters. We apply fluorescence correlation spectroscopy (FCS) to investigate the pH-dependent aggregation tendency of non-functionalized polystyrene (PS) nanoparticles (NPs) due to intermolecular forces with model extracellular biofilm substances. Our biofilm model consists of bovine serum albumin (BSA), which serves as a representative for globular proteins, and the polysaccharide alginate, which is a main component in many biofilms, in solutions containing Na+ with an ionic strength being realistic for fresh-water conditions. Biomolecule concentrations ranging from 0.5 g/L up to at maximum 21 g/L are considered. We use non-functionalized PS NPs as representative for mostly negatively charged nanoplastics. BSA promotes NP aggregation through adsorption onto the NPs and BSA-mediated bridging. In BSA–alginate mixtures, the alginate hampers this interaction, most likely due to alginate–BSA complex formation. In most BSA–alginate mixtures as in alginate alone, NP aggregation is predominantly driven by weaker, pH-independent depletion forces. The stabilizing effect of alginate is only weakened at high BSA contents, when the electrostatic BSA–BSA attraction is not sufficiently screened by the alginate. This study clearly shows that it is crucial to consider correlative effects between multiple biofilm components to better understand the NP aggregation in the presence of complex biofilm substances. Single-component biofilm model systems based on comparing the total organic carbon (TOC) content of the extracellular biofilm substances, as usually considered, would have led to a misjudgment of the stability towards aggregation.
The goal of this PhD thesis is to investigate possibilities of using symbol elimination for solving problems over complex theories and analyze the applicability of such uniform approaches in different areas of application, such as verification, knowledge representation and graph theory. In the thesis we propose an approach to symbol elimination in complex theories that follows the general idea of combining hierarchical reasoning with symbol elimination in standard theories. We analyze how this general approach can be specialized and used in different areas of application.
In the verification of parametric systems it is important to prove that certain safety properties hold. This can be done by showing that a property is an inductive invariant of the system, i.e. it holds in the initial state of the system and is invariant under updates of the system. Sometimes this is not the case for the condition itself, but for a stronger condition it is. In this thesis we propose a method for goal-directed invariant strengthening.
In knowledge representation we often have to deal with huge ontologies. Combining two ontologies usually leads to new consequences, some of which may be false or undesired. We are interested in finding explanations for such unwanted consequences. For this we propose a method for computing interpolants in the description logics EL and EL⁺, based on a translation to the theory of semilattices with monotone operators and a certain form of interpolation in this theory.
In wireless network theory one often deals with classes of geometric graphs in which the existence or non-existence of an edge between two vertices in a graph relies on properties on their distances to other nodes. One possibility to prove properties of those graphs or to analyze relations between the graph classes is to prove or disprove that one graph class is contained in the other. In this thesis we propose a method for checking inclusions between geometric graph classes.
In Geschäftsbeziehungen, z. B. im internationalen Eisenbahnverkehr, können große Datenmengen zwischen den beteiligten Parteien ausgetauscht werden. Für den Austausch solcher Daten wird erwartet, dass das Risiko betrogen zu werden, z. B. durch den Erhalt gefälschter Daten, marginal ist, als auch angemessene Kosten sowie ein vorhersehbarer Gewinn. Da die ausgetauschten Daten für wichtige Geschäftsentscheidungen verwendet werden können, besteht für eine Partei ein hoher Anreiz, die Daten zu ihren Gunsten zu manipulieren. Um diese Art von Manipulation zu unterbinden existieren Mechanismen zur Sicherstellung der Integrität und Authentizität der Daten. In Kombination mit einem Protokoll für einen fairen Austausch kann sichergestellt werden, dass die Integrität und Authentizität dieser Daten auch über einen Austausch mit einer anderen Partei hinweg erhalten bleibt. Gleichzeitig stellt ein solches Protokoll sicher, dass der Austausch der Daten nur bei gleichzeitigem Austausch mit der vereinbarten Gegenleistung, z. B. einer Bezahlung erfolgt, aber auch, dass die Bezahlung nur erfolgt, wenn die Integrität und Authentizität der Daten wie vorher vereinbart, gegeben ist. Um jedoch Fairness garantieren zu können, muss ein Fair Exchange Protokoll eine vertrauenswürdige dritte Partei einbeziehen. Um Betrug durch eine einzelne zentralisierte Partei zu vermeiden, die als vertrauenswürdige dritte Partei agiert, schlägt die aktuelle Forschung vor, die vertrauenswürdige dritte Partei zu dezentralisieren, indem z. B. ein Distributed Ledger-basiertes Fair-Exchange Protokoll verwendet wird. Bei der Bewertung der Fairness eines solchen Austauschs vernachlässigen die aktuellen Ansätze jedoch die Kosten, die den Parteien entstehen, die den Fair Exchange durchführen. Dies kann zu einer Verletzung der skizzierten Erwartung angemessener Kosten führen, insbesondere wenn Distributed Ledger beteiligt sind, deren Benutzung in der Regel mit nicht-vernachlässigbaren Kosten verbunden ist. Darüber hinaus ist die Geschwindigkeit typischer Distributed-Ledger-basierter Fair Exchange-Protokolle begrenzt, was einer breiten Verwendung im Wege steht.
Um diese Herausforderungen zu überwinden, stellen wir in dieser Arbeit die Grundlage für eine Datenaustauschplattform vor, die einen vollständig dezentralisierten Fair Exchange mit angemessenen Kosten und Geschwindigkeit ermöglicht. Als theoretische Grundlage führen wir das Konzept der cost fairness ein, die die Kosten für die Fairnessbewertung berücksichtigt, indem verlangt wird, dass eine Partei, die dem Fair Exchange-Protokoll folgt, niemals einseitige Nachteile erleidet. Wir weisen nach, dass cost fairness nicht mit typischen öffentlichen Distributed Ledgers erreicht werden kann, sondern maßgeschneiderte Distributed Ledger-Instanzen erfordert, die in der Regel nicht vollständig dezentralisiert sind. Wir zeigen jedoch, dass die meisten einseitigen Kosten durch Angriffe einer unehrlichen Partei im Rahmen einer Grieving Attack verursacht werden können. Um einen Fair Exchange zu angemessenen Kosten und Geschwindigkeit zu ermöglichen, stellen wir FairSCE vor, ein Distributed Ledger-basiertes Fair Exchange-Protokoll, welches Distributed Ledger State Channels verwendet und einen Mechanismus zum Schutz vor Grieving Attacks enthält, wodurch die möglichen einseitigen Kosten auf ein Minimum reduziert werden. Auf der Grundlage unserer Evaluation von FairSCE sind die Worst Case-Kosten für den Datenaustausch selbst bei Vorhandensein von böswilligen Parteien bekannt, was eine Abschätzung des möglichen Nutzens und damit eine vorläufige Schätzung des wirtschaftlichen Nutzens ermöglicht. Um eine eindeutige Bewertung der korrekten übertragenen Daten zu ermöglichen und gleichzeitig sensible Teile der Daten zu maskieren, stellen wir außerdem einen Ansatz für das Hashing hierarchisch strukturierter Daten vor, mit dem die Integrität und Authentizität der übertragenen Daten sichergestellt werden kann.
Well-being is essential for all people. Therefore, important factors influencing people’s well-being must be investigated. Well-being is multifaceted and defined as, for example, psychological, emotional, mental, physical, or social well-being. Here, we focus on psychological well-being. The study aimed to analyze different aspects of connectedness as potential predictors of psychological well-being. For this purpose, we conducted a study examining the psychological well-being of 184 participants (130 women, 54 men, age: M = 31.39, SD = 15.24) as well as their connectedness with oneself (self-love), with others (prosocialness), with nature (nature connectedness), and with the transcendent (spirituality). First, significant positive correlations appeared between psychological well-being and self-love, nature connectedness, and spirituality. Furthermore, correlations between the four aspects of connectedness were significant, except for the relationship between self-love and prosocialness. A regression analysis revealed that self-love and nature connectedness positively predicted participants’ psychological well-being, while spirituality and prosocialness did not explain any incremental variance. The strong relationship between self-love and well-being was partly mediated by nature connectedness. Hence, self love, understood as a positive attitude of self-kindness, should be considered in more detail to enhance psychological well-being. Besides this, a more vital connectedness to the surrounding nature could benefit people’s well-being.
Examining the role of post-event processing in test anxiety—Pilot testing in three student samples
(2024)
This work investigates the occurrence of post-event processing (PEP) in the context of test anxiety; PEP involves rumination and self-critical thinking following an event and commonly observed in social anxiety. Three short-term longitudinal studies in student samples examined whether PEP occurs after exams and how it is associated with test anxiety. University students (N =35 in Study 1, N =146 in Study 2, and N =37 in Study 3) completed measures of trait and state test anxiety before an actual exam; PEP related to the exam was assessed at various time points afterward. Results revealed that PEP occurred to a meaningful extent after exam situations. Overall, it was positively associated with trait and state test anxiety, although some variations in the relations were found across the three studies. These findings underscore the relevance of PEP in the context of test anxiety, as PEP might contribute to maintaining test anxiety in the long term. Implications for future studies are discussed.
Degenerative Veränderungen der Wirbelsäule sowie Rückenschmerzen können als Volkskrankheit betrachtet werden. Ein falsches Belasten der lumbalen Rückenstrukturen wird häufig als einer der Faktoren angesehen, die degenerative Prozesse beschleunigen können, was zu Rückenschmerzen führt. Eine degenerative Veränderung kann bspw. das Auftreten einer Spinalkanalstenose in Folge von Wirbelgleiten sein. Die chirurgische Behandlung der Spinalstenose konzentriert sich hauptsächlich auf die Dekompression des Spinalkanals mit oder ohne zusätzliche Fusion mittels dorsaler Spondylodese. Dabei gibt es unterschiedliche Meinungen darüber, ob eine Fusion zusammen mit der Dekompression einen potenziellen Nutzen für Patienten hat oder eine Überbehandlung darstellt. Konventionelle Therapien als auch chirurgische Methoden zielen darauf ab, eine “gesunde” (oder zumindest schmerzfreie) Lastverteilung wiederherzustellen. Dementgegen ist überraschend wenig über die interindividuelle Variabilität der Lastverteilung in “gesunden” Lendenwirbelsäulen bekannt. Da medizinische Bildgebungen keine Informationen über innere Kräfte liefern, könnte die Computersimulation individueller Patienten ein Instrument sein, um eine Reihe neuer Entscheidungskriterien für diese Fälle zu gewinnen. Der Vorteil liegt dabei in der Berechnung der inneren Belastungsverteilung, was zum Beispiel in in-vivo Untersuchungen nicht möglich ist, da Messungen der inneren Kräfte am lebenden Menschen ethisch sowie teilweise auch technisch nicht umsetzbar sind. In der vorliegenden Forschungsarbeit wurde der vorwärtsdynamische Ansatz zu Berechnung der Belastungsverteilung in Mehrkörper-Modellen von individuellen Lendenwirbelsäulen verwendet. Die Arbeit gliedert sich dabei in drei Teile: (I) Zum einen wird die Belastungsverteilung in Abhängigkeit der individuellen Krümmung der Lendenwirbelsäule quantifiziert. (II) Des Weiteren werden Konfidenzbereiche des zeitlichen Verlaufs von Drehzentren bestimmt, mit welchen das Bewegungsverhalten von gesunden Lendenwirbelsäulen beschrieben werden kann. (III) Drittens werden die Auswirkungen von Dekompressionsoperationen auf die Belastungsverteilung von Lendenwirbelsäulen bestimmt.
Die aus nachwachsenden Rohstoffen hergestellten biologisch abbaubaren Polymere Polymilchsäure (polylactic acid, PLA) und Polyhydroxybuttersäure (polyhydroxybutyrate, PHB) wurden im Rahmen dieser Arbeit mit hydrierten amorphen Kohlenstoffschichten (amorphous hydrogenated carbon, a-C:H) bei unterschiedlichen Winkeleinstellungen mit verschiedenen Dicken beschichtet. Ähnlich wie herkömmliche Polymere haben Biopolymere oft ungeeignete Oberflächeneigenschaften für industrielle Zwecke, z.B. eine geringe Härte. Für manche Anwendungen ist es daher notwendig und vorteilhaft, die Oberflächeneigenschaften von Biopolymeren unter Beibehaltung der Haupteigenschaften des Trägermaterials zu modifizieren. Eine geeignete Oberflächenmodifikation ist das Aufbringen von dünnen a-C:H Schichten. Ihre Eigenschaften hängen wesentlich vom sp²- und sp³-Hybridisierungsverhältnis der Kohlenstoffatome und dem Gehalt an Wasserstoffatomen ab. Das sp²/sp³-Verhältnis sollte in der vorliegenden Arbeit durch Variation der Beschichtungsgeometrie gesteuert werden. Da Beschichtungen bei 0°, direkt vor der Plasmaquelle, einen höheren Anteil an sp³ und indirekt (180°) beschichtete ein höheren Anteil an sp² aufweisen, wird in dieser Arbeit gezeigt, dass es möglich ist, das sp²/sp³ -Verhältnis zu kontrollieren. Dazu werden die einzelnen Proben in den Winkeln 0, 30, 60, 90, 120, 150 und 180° vor der Plasmaquelle platziert und mit einer Dauer von 2.5, 5.0, 7.5 und 10.0 Minuten beschichtet. Für den Winkeln 0° ergaben sich die Schichtdicken von 25, 50, 75 und 100 nm. Die a-C:H Schichten wurden alle mit Radiofrequenzplasma-unterstützter chemischer Gasphasenabscheidung und Acetylen als C und H Quelle abgeschieden, nachdem sie 10 Minuten lang mit einem Sauerstoffplasma vorbehandelt worden waren. Nach dieser O₂-Behandlung und der a-C:H Abscheidung werden die Oberflächen mit makroskopischen und mikroskopischen Messmethoden untersucht und die Daten anschließend analysiert. Die Oberflächenmorphologie wird mit Hilfe der Rasterelektronenmikroskopie und der Rasterkraftmikroskopie erfasst. Auf diese Weise können auch Informationen über die Stabilität der Schicht und die Oberflächenrauhigkeit gesammelt werden. Mit Kontaktwinkelmessungen (contact angle, CA) wird nicht nur die Benetzbarkeit, sondern auch die Kontaktwinkelhysterese durch Auf- und Abpumpen des Tropfenvolumens bestimmt. Durch Messung des CA von verschiedenen Flüssigkeiten und deren Vergleich werden die freie Oberflächenenergie (surface free energy, SFE) und ihre polaren und dispersiven Bestandteile bestimmt. Die Veränderungen der Barriereeigenschaften werden durch Wasserdampftransmissionstests (water vapor transmission rate, WVTR) überprüft. Die chemische Analyse der Oberfläche erfolgt zum einen durch Fourier-Transformations-Infrarotspektroskopie mit spiegelnder Reflexion und zum anderen durch Synchrotron unterstützte Techniken wie der Nahkanten-Röntgenabsorptionsfeinstruktur und der Röntgen-Photoelektronenspektroskopie. Bei der Analyse der Oberflächen nach der O₂ Behandlung, von der zunächst angenommen wurde, dass sie nur der Reinigung und Aktivierung der Oberfläche für die a-C:H Beschichtung dient, wurde festgestellt, dass die Veränderungen drastischer sind als ursprünglich angenommen. Wird PLA zum Beispiel bei 0° für 10 Minuten behandelt, steigt die Rauheit um das Fünffache. Mit zunehmendem Winkel verringert sich diese wieder, bis sie bei 180° wieder dem Ausgangswert entspricht. Bei PHB hingegen wird durchgehend ein ähnlicher Wert gemessen. Für beide Polymere lässt sich zeigen, dass der polare Anteil der SFE zunimmt. In der WVTR ist bei PLA eine Abnahme der Permeabilität und bei PHB ein Anstieg des Ausgangswertes zu beobachten. Die chemische Oberflächenanalyse zeigt, dass die O₂ Behandlung kaum Auswirkungen auf die Oberflächenbindungen hat. Insgesamt kann in dieser Arbeit gezeigt werden, dass sich die O₂ Behandlung auf die Eigenschaften der Oberfläche auswirkt und nicht ausschließlich als Reinigungs- und Aktivierungsprozess betrachtet werden kann. Bei direkter a-C:H Beschichtung (bei 0°) ist sowohl bei PLA als auch bei PHB ein Schichtversagen bei 10.0 Minuten aufgrund von Eigenspannung zu beobachten. Dies ist bei PHB in geringerem Maße auch bei 30° zu erkennen. Die Durchlässigkeit der Polymere wird bei einer fünf minütigen Beschichtung um 47% reduziert und auch die Schicht bei 10.0 Minuten führt diesen Effekt trotz auftretender Risse weiter. Die Aufbringung von a-C:H Schichten zeigt für beide Polymertypen bei direkter Beschichtung eine Dominanz von sp³-Bindungen. Mit zunehmendem Winkel nimmt diese ab und bei indirekten Beschichtungen werden sp²-Bindungen dominierend. Dieses Ergebnis ist für alle Schichtdicken ähnlich, nur der Winkel, bei dem der Wechsel der dominanten Bindung stattfindet, ist unterschiedlich. Es wird gezeigt, dass es möglich ist, die Oberflächeneigenschaften durch eine winkelabhängige Beschichtung zu steuern und somit das Verhältnis sp²/sp³ zu kontrollieren.
Reducing gender bias in STEM is key to generating more equality and contributing to a more balanced workforce in this field. Spatial ability and its components are cognitive processes crucial to success in STEM education and careers. Significant gender differences have consistently been found in mental rotation (MR), the ability to mentally transform two- and three-dimensional objects. The aim of this pilot study is to examine factors in psychological assessment which may contribute to gender differences in MR performance. Moreover, findings will inform the development of the new approaches to assessment using computer adaptive testing (CAT). (1) Background: The study examines the impact of emotional regulation on MR performance in primary school children whose mean age was 9.28 years old. (2) Methods: Skin conductance was measured to assess the impact of emotional reactivity (ER) on performance during an MR task. (3) Results: Patterns of ER influence response time (RT) on specific items in the task. (4) Conclusions: Identifying the effects of emotional arousal and issues of test construction such as stereotyped stimuli and item difficulty in tests of spatial ability warrants ongoing investigation. It is vital to ensure that these factors do not compromise the accurate measurement of performance and inadvertently contribute to the gender gap in STEM.
The title compound, [Fe(C5H5)(C21H24NO2)], which is produced by the oxidation of 1-(4-tert-butylphenyl)-2-ethyl-3-ferrocenylpyrrole, crystallizes as a racemic mixture in the centrosymmetric space group P21/n. The central heterocyclic pyrrole ring system subtends dihedral angles of 13.7 (2)° with respect to the attached cyclopentadienyl ring and of 43.6 (7)° with the major component of the disordered phenyl group bound to the N atom. The 4-tert-butylphenyl group, as well as the non-substituted Cp ring are disordered with s.o.f. values of 0.589 (16) and 0.411 (16), respectively. In the crystal, molecules with the same absolute configuration are linked into infinite chains along the b-axis direction by O—H···O hydrogen bonds between the hydroxy substituent and the carbonyl O atom of the adjacent molecule.
Herein, the particle size distributions (PSDs) and shape analysis of in vivo bioproduced particles from aqueous Au3+ and Eu3+ solutions by the cyanobacterium Anabaena sp. are examined in detail at the nanoscale. Generally, biosynthesis is affected by numerous parameters. Therefore, it is challenging to find the key set points for generating tailored nanoparticles (NPs). PSDs and shape analysis of the Au and Eu-NPs were performed with ImageJ using high-resolution transmission electron microscopy (HR-TEM) images. As the HR-TEM image analysis reflects only a fraction of the detected NPs within the cells, additional PSDs of the complete cell were performed to determine the NP count and to evaluate the different accuracies. Furthermore, local PSDs were carried out at five randomly selected locations within a single cell to identify local hotspots or agglomerations. The PSDs show that particle size depends mainly on contact time, while the particle shape is hardly affected. The particles formed are distributed quite evenly within the cells. HR-PSDs for Au-NPs show an average equivalent circular diameter (ECD) of 8.4 nm (24 h) and 7.2 nm (51 h). In contrast, Eu-NPs preferably exhibit an average ECD of 10.6 nm (10 h) and 12.3 nm (244 h). Au-NPs are classified predominantly as “very round” with an average reciprocal aspect ratio (RAR) of ~0.9 and a Feret major axis ratio (FMR) of ~1.17. Eu-NPs mainly belong to the “rounded” class with a smaller RAR of ~0.6 and a FMR of ~1.3. These results show that an increase in contact time is not accompanied by an average particle growth for Au-NPs, but by a doubling of the particle number. Anabaena sp. is capable of biosorbing and bioreducing dissolved Au3+ and Eu3+ ions from aqueous solutions, generating nano-sized Au and Eu particles, respectively. Therefore, it is a low-cost, non-toxic and effective candidate for a rapid recovery of these sought-after metals via the bioproduction of NPs with defined sizes and shapes, providing a high potential for scale-up.
How to begin? This short question addresses a problem that is anything but simple, especially when regarding something as sophisticated and multilayered as musical theatre. However, scholars of this vast research area have mostly neglected this question so far. This study analyses and compares the initial sections of late Victorian popular musical theatre and is therefore a contribution to several fields of research: the analysis of initial sections of musical theatre in general, the analysis of the music of popular musical theatre in particular, and therefore operetta studies. The 1890s are especially interesting times for popular musical theatre in London: The premiered works include the last collaborations of Gilbert and Sullivan as well as offshoots of Savoy opera; but the so-called ‘naughty nineties’ also saw the emergence of a new genre, musical comedy, which captured the late Victorian zeitgeist like no other. This new form of theatrical entertainment was carefully and consciously constructed and promoted as modern and fashionable, walking a fine line between respectability and mildly risqué excitement.
Because a deep understanding of the developments and new tendencies concerning popular musical theatre in the 1890s is crucial in order to interpret differences as well as similarities, the analyses of the opening numbers are preceded by a detailed discussion of the relevant genres: comic opera, musical comedy, musical play and operetta. Since the producers of the analysed works wanted to distance themselves from former and supposedly old-fashioned traditions, this book also considers influences from their British predecessors, but also from Viennese operetta and French opéra bouffe.
Coat color and pattern are a distinguished feature in mammalian carnivores, shaped by climatic cycles and habitat type. It can be expressed in various ways, such as gradients, polymorphisms, and rare color variants. Although natural selection explains much of the phenotypic variation found in the wild, genetic drift and heterozygote deficiency, as prominent in small and fragmented populations, may also affect phenotypic variability through the fixation of recessive alleles. The aim of this study was to test whether rare color variants in the wild could relate to a deficiency of heterozygotes, resulting from habitat fragmentation and small population size. We present an overview of all rare color variants in the order Carnivora, and compiled demographic and genetic data of the populations where they did and did not occur, to test for significant correlations. We also tested how phylogeny and body weight influenced the presence of color variants with phylogenetic generalized linear mixed models (PGLMMs). We found 40 color-variable species and 59 rare color variants. In 17 variable phenotypic populations for which genetic diversity was available, the average AR was 4.18, HO = 0.59, and HE= 0.66, and FIS= 0.086. We found that variable populations displayed a significant reduction in heterozygosity and allelic richness compared to non-variable populations across species. We also found a significant negative correlation between population size and inbreeding coefficients. Therefore, it is possible that small effective size had phenotypic consequences on the extant populations. The high frequency of the rare color variants (averaging 20%) also implies that genetic drift is locally overruling natural selection in small effective populations. As such, rare color variants could be added to the list of phenotypic consequences of inbreeding in the wild.
The production of isolated metallic nanoparticles with multifunctionalized properties, such as size and shape, is crucial for biomedical, photocatalytic, and energy storage or remediation applications. This study investigates the initial particle formations of gold nanoparticles (AuNPs) bioproduced in the cyanobacteria Anabaena sp. using high-resolution transmission electron microscopy images for digital image analysis. The developed method enabled the discovery of cerium nanoparticles (CeNPs), which were biosynthesized in the cyanobacteria Calothrix desertica. The particle size distributions for AuNPs and CeNPs were analyzed. After 10 h, the average equivalent circular diameter for AuNPs was 4.8 nm, while for CeNPs, it was approximately 5.2 nm after 25 h. The initial shape of AuNPs was sub-round to round, while the shape of CeNPs was more roundish due to their amorphous structure and formation restricted to heterocysts. The local PSDs indicate that the maturation of AuNPs begins in the middle of vegetative cells and near the cell membrane, compared to the other regions of the cell.
X-ray computed tomography (XRT) is a three-dimensional (3D), non-destructive, and reproducible investigation method capable of visualizing and examining internal and external structures of components independent of the material and geometry. In this work, XRT with its unique abilities complements conventionally utilized examination methods for the investigation of microstructure weakening induced by hydrogen corrosion and furthermore provides a new approach to corrosion research. The motivation for this is the current inevitable transformation to hydrogen-based steel production. Refractories of the system Al2O3-SiO2 are significant as lining materials. Two exemplary material types A and B, which differ mainly in their Al2O3:SiO2 ratio, are examined here using XRT. Identical samples of the two materials are measured, analyzed, and then compared before and after hydrogen attack. In this context, hydrogen corrosion-induced porosity and its spatial distribution and morphology are investigated. The results show that sample B has an higher resistance to hydrogen-induced attack than sample A. Furthermore, the 3D-representation revealed a differential porosity increase within the microstructure.
This thesis explores and examines the effectiveness and efficacy of traditional machine learning (ML), advanced neural networks (NN) and state-of-the-art deep learning (DL) models for identifying mental distress indicators from the social media discourses based on Reddit and Twitter as they are immensely used by teenagers. Different NLP vectorization techniques like TF-IDF, Word2Vec, GloVe, and BERT embeddings are employed with ML models such as Decision Tree (DT), Random Forest (RF), Logistic Regression (LR) and Support Vector Machine (SVM) followed by NN models such as Convolutional Neural Network (CNN), Recurrent Neural Network (RNN) and Long Short-Term Memory (LSTM) to methodically analyse their impact as feature representation of models. DL models such as BERT, DistilBERT, MentalRoBERTa and MentalBERT are end-to-end fine tuned for classification task. This thesis also compares different text preprocessing techniques such as tokenization, stopword removal and lemmatization to assess their impact on model performance. Systematic experiments with different configuration of vectorization and preprocessing techniques in accordance with different model types and categories have been implemented to find the most effective configurations and to gauge the strengths, limitations, and capability to detect and interpret the mental distress indicators from the text. The results analysis reveals that MentalBERT DL model significantly outperformed all other model types and categories due to its specific pretraining on mental data as well as rigorous end-to-end fine tuning gave it an edge for detecting nuanced linguistic mental distress indicators from the complex contextual textual corpus. This insights from the results acknowledges the ML and NLP technologies high potential for developing complex AI systems for its intervention in the domain of mental health analysis. This thesis lays the foundation and directs the future work demonstrating the need for collaborative approach of different domain experts as well as to explore next generational large language models to develop robust and clinically approved mental health AI systems.
Nanopartikel sind sensitive und gleichzeitig robuste Systeme, sie sind auf Grund ihrer groflen Oberfläche besonders reaktiv und besitzen Eigenschaften, die das Bulk-Material nicht aufweist. Gleichzeitig ist die Herstellung von Nanopartikeln selbst bei gleichen Parametern und Bedingungen eine Herausforderung, da sich die Parameter von Durchgang zu Durchgang ein bisschen unterscheiden können. Um dies zu verhindern soll, in dieser Arbeit eine kontinuierliche Synthese im Mikro-Jet Reaktor für Ceroxid-Nanopartikel entwickelt werden. Ziel war es, monodisperse Nanopartikel zu erhalten, die in Biosensoren Anwendung finden.
Im Mittelpunkt dieser Arbeit stehen zwei Fällungssynthesen mit den Zwischenschritten Cercarbonat und Cerhydroxid sowie eine Mikroemulsionssynthese zur Herstellung von Ceroxid-Nanopartikeln. Die Ceroxid-Nanopartikel werden anhand verschiedener Charakterisierungs- und Anwendungsmethoden verglichen, dabei werden die synthetisierten Nanopartikel hinsichtlich ihrer Größe, Stabilität, chemischen Zusammensetzung und katalytischen Fähigkeiten durch Elektronenmikroskopie, Röntgenbeugung, Raman- und Photoelektronen-Spektroskopie charakterisiert.
Die Anwendung der Ceroxid-Nanopartikel erfolgte in biologischen Sensorsystemen. Die Sensorsysteme sind so konzipiert, dass sie Histamin und Glukose oder Wasserstoffperoxid, welches bei der Oxidation von Histamin und Glukose entsteht, nachweisen. Wasserstoffperoxid und Glukose werden in dieser Arbeit durch einen elektrochemischen Sensor und Histamin durch ein kolorimetrisches Sensorsystem nachgewiesen.
In dieser wiederkehrenden Zeitschriftenreihe wollen wir die Arbeit junger Wissenschaftlerinnen und Wissenschaftler an der Universität Koblenz kommunizieren und Studierenden Austausch- und Publikationsmöglichkeiten für den wissenschaftlichen Werdegang eröffnen.
In dieser Ausgabe:
Christin Robrecht: Helfen kommt nach der Flut: Über die Ambivalenz situativ-nichtalltäglicher Dynamiken im Kontext der Flutkatastrophe im Ahrtal
Theresa Josephine Fischbach: Kontrollüberzeugung und Job Strain: Eine empirische Analyse verschiedener Ausprägungen von Job Strain aufgrund individueller Unterschiede der Kontrollüberzeugung
Rebekka Jachmig: Der Ukraine-Krieg im rechtspopulistischen Diskurs: Eine Analyse der Deutungsmuster von AfD-Politiker*innen
Hanna Schroer: Am Rande Galliens, inmitten der Welt: Eine Comicanalyse interkultureller Fremderfahrung am Beispiel der Comicserie Asterix
Lisa-Marie Schwab: Koloniale Spuren des Handels in Koblenz: Eine kritische Aufarbeitung
Jana Semrau: Okey-Doke: Political Critique in Spike Lee’s "BlacKkKlansman" (2018)
Anna Mira Olszewski: Of Wardrobes and Closets. A Lesson Plan on "Simon vs. Homo Sapiens Agenda" (2015) by Becky Albertalli
Marina Neuwert: Projektive Kommunikation von (Berufs-)Identität: Promotionsinteresse und Zukunftskarrieren bei Lehramtsstudierenden
Jan-Lukas Löwen: Zur Möglichkeit und Notwendigkeit der ästhetischen Erfahrung im Literaturunterricht
Malin Britz: Wearable Devices: Ein systemisches Review
This work addresses the challenge of calibrating multiple solid-state LIDAR systems. The study focuses on three different solid-state LIDAR sensors that implement different hardware designs, leading to distinct scanning patterns for each system. Consequently, detecting corresponding points between the point clouds generated by these LIDAR systems—as required for calibration—is a complex task. To overcome this challenge, this paper proposes a method that involves several steps. First, the measurement data are preprocessed to enhance its quality. Next, features are extracted from the acquired point clouds using the Fast Point Feature Histogram method, which categorizes important characteristics of the data. Finally, the extrinsic parameters are computed using the Fast Global Registration technique. The best set of parameters for the pipeline and the calibration success are evaluated using the normalized root mean square error. In a static real-world indoor scenario, a minimum root mean square error of 7 cm was achieved. Importantly, the paper demonstrates that the presented approach is suitable for online use, indicating its potential for real-time applications. By effectively calibrating the solid-state LIDAR systems and establishing point correspondences, this research contributes to the advancement of multi-LIDAR fusion and facilitates accurate perception and mapping in various fields such as autonomous driving, robotics, and environmental monitoring.
In der vorliegenden Dissertation mit dem Titel "Blickanalysen bei mentalen Rotationsaufgaben" wird eine Analyse der visuellen Verarbeitungsprozesse bei mentalen Rotationsaufgaben mittels Eye-Tracking-Technologie durchgeführt, um die zugrundeliegenden kognitiven Prozesse und Strategien, die bei der Lösung dieser Aufgaben angewandt werden, zu untersuchen. Ein Anliegen dieser Arbeit ist es, die Problemstellung zu adressieren, wie individuelle Unterschiede, insbesondere geschlechtsspezifische Differenzen in den Blickmustern, die visuelle Verarbeitung und Leistung bei mentalen Rotationsaufgaben beeinflussen. Hierzu wurden drei Studien durchgeführt, die nicht nur die Identifikation von Blickmustern und die Analyse der Leistungsunterschiede in Bezug auf Geschlecht umfassen, sondern auch die Korrelation zwischen Blickverhalten und Leistung untersuchen. Die Ergebnisse dieser Forschung bieten Einblicke in die Mechanismen der visuellen und kognitiven Verarbeitung bei mentalen Rotationsaufgaben und heben die Bedeutung des Eye-Tracking als Forschungsinstrument in der kognitiven Psychologie hervor, um ein umfassendes Verständnis der Einflussfaktoren auf räumliches Denken und Problemlösungsstrategien zu erlangen.
Sogenannte Klassische Musik spielte spätestens ab der zweiten Hälfte des 20. Jahrhunderts eine zentrale Rolle für den Musikunterricht in Deutschland. Aber auch der Blick auf jüngere musikpädagogische Diskursstränge lässt Klassische Musik nach wie vor als virulenten Diskussionsanlass erscheinen. Doch wie denken eigentlich Musiklehrer:innen über Klassische Musik im Musikunterricht nach? Diese Thematik ist in der deutschsprachigen Musikpädagogik bisher nicht systematisch erforscht.
Zur Beantwortung der Frage wie Musiklehrer:innen über Klassische Musik im Musikunterricht nachdenken werden in einer qualitativ-empirischen Studie acht leitfadengestützte Interviews geführt und in Anlehnung an die Grounded Theory Methodology ausgewertet. Die herausgearbeitete Theorie zeigt, dass Musiklehrer:innen mit dem Einsatz von Klassischer Musik im Musikunterricht unterschiedliche Ziele verfolgen, diese Musik aber grundsätzlich als den Schüler:innen fremd wahrnehmen. Um mit dieser Situationen umzugehen, entwickeln die Musiklehrer:innen verschiedene Methoden und Strategien, die sich drei Umgangsweisen mit der wahrgenommenen Fremdheit Klassischer Musik zuordnen lassen: Fremdheit vermeiden, Fremdheit reduzieren/relativieren und Fremdheit nutzen.
Die Ergebnisse der Studie werden in fremdheitstheoretischer, musikdidaktischer und transformatorisch-bildungstheoretischer Perspektive kontextualisiert. Die vorliegende Dissertation liefert somit insgesamt einen Beitrag zu musikpädagogischer Unterrichtsforschung zu Klassischer Musik und schafft Anknüpfungspunkte für weitergehende theoretische, empirische und didaktische Forschung.
Diese Dissertation widmet sich der inhaltsanalytischen, quantitativen Analyse der Kompilation Disney Princess durch die Anwendung der Theorie des male gaze von Laura Mulvey, welche sie in Visual Pleasure and Narrative Cinema (1975) sowie Afterthoughts on `Visual Pleasure and Narrative Cinema‘ inspired by King Vidor´s Duel in the Sun (1946) (1981) darstellte.
Die Autorin der Dissertation nutzt die quantitative Inhaltsanalyse nach Patrick Rössler, um die Filme der Kompilation Disney Princess aus den Jahren 1937 bis 2016 sowie den Film Die Eiskönigin (2013) auf die Darstellung der weiblich und männlich gelesenen Filmfiguren im Hinblick auf die Körperproportionen, den Grad ihrer Aktivität und den Umfang ihrer Präsenz sowie das Geschlecht der Filmmitarbeiter:innen zu untersuchen.
Focusing on the triangulation of detective fiction, masculinity studies and disability studies, "Investigating the Disabled Detective – Disabled Masculinity and Masculine Disability in Contemporary Detective Fiction" shows that disability challenges common ideals of (hegemonic) masculinity as represented in detective fiction. After a theoretical introduction to the relevant focal points of the three research fields, the dissertation demonstrates that even the archetypal detectives Dupin and Holmes undermine certain nineteenth-century masculine ideals with their peculiarities. Shifting to contemporary detective fiction and adopting a literary disability studies perspective, the dissertation investigates how male detectives with a form of neurodiversity or a physical impairment negotiate their masculine identity in light of their disability in private and professional contexts. It argues that the occupation as a detective supports the disabled investigator to achieve ‘masculine disability’. Inversing the term ‘disabled masculinity’, predominantly used in research, ‘masculine disability’ introduces a decisively gendered reading of neurodiversity and (acquired) physical impairment in contemporary detective fiction. The term implies that the disabled detective (re)negotiates his masculine identity by implementing the disability in his professional investigations and accepting it as an important, yet not defining, characteristic of his (gender) identity. By applying this approach to five novels from contemporary British and American detective fiction, the dissertation demonstrates that masculinity and disability do not negate each other, as commonly assumed. Instead, it emphasises that disability allows the detective, as much as the reader, to rethink masculinity.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
Empirische Studien in der Softwaretechnik verwenden Software Repositories als Datenquellen, um die Softwareentwicklung zu verstehen. Repository-Daten werden entweder verwendet, um Fragen zu beantworten, die die Entscheidungsfindung in der Softwareentwicklung leiten, oder um Werkzeuge bereitzustellen, die bei praktischen Aspekten der Entwicklung helfen. Studien werden in die Bereiche Empirical Software Engineering (ESE) und Mining Software Repositories (MSR) eingeordnet. Häufig konzentrieren sich Studien, die mit Repository-Daten arbeiten, auf deren Ergebnisse. Ergebnisse sind aus den Daten abgeleitete Aussagen oder Werkzeuge, die bei der Softwareentwicklung helfen. Diese Dissertation konzentriert sich hingegen auf die Methoden und High-Order-Methoden, die verwendet werden, um solche Ergebnisse zu erzielen. Insbesondere konzentrieren wir uns auf inkrementelle Methoden, um die Verarbeitung von Repositories zu skalieren, auf deklarative Methoden, um eine heterogene Analyse durchzuführen, und auf High-Order-Methoden, die verwendet werden, um Bedrohungen für Methoden, die auf Repositories arbeiten, zu operationalisieren. Wir fassen dies als technische und methodische Verbesserungen zusammen um zukünftige empirische Ergebnisse effektiver zu produzieren. Wir tragen die folgenden Verbesserungen bei. Wir schlagen eine Methode vor, um die Skalierbarkeit von Funktionen, welche über Repositories mit hoher Revisionszahl abstrahieren, auf theoretisch fundierte Weise zu verbessern. Wir nutzen Erkenntnisse aus abstrakter Algebra und Programminkrementalisierung, um eine Kernschnittstelle von Funktionen höherer Ordnung zu definieren, die skalierbare statische Abstraktionen eines Repositorys mit vielen Revisionen berechnen. Wir bewerten die Skalierbarkeit unserer Methode durch Benchmarks, indem wir einen Prototyp mit MSR/ESE Wettbewerbern vergleichen. Wir schlagen eine Methode vor, um die Definition von Funktionen zu verbessern, die über ein Repository mit einem heterogenen Technologie-Stack abstrahieren, indem Konzepte aus der deklarativen Logikprogrammierung verwendet werden, und mit Ideen zur Megamodellierung und linguistischen Architektur kombiniert werden. Wir reproduzieren bestehende Ideen zur deklarativen Logikprogrammierung mit Datalog-nahen Sprachen, die aus der Architekturwiederherstellung, der Quellcodeabfrage und der statischen Programmanalyse stammen, und übertragen diese aus der Analyse eines homogenen auf einen heterogenen Technologie-Stack. Wir liefern einen Proof-of-Concept einer solchen Methode in einer Fallstudie. Wir schlagen eine High-Order-Methode vor, um die Disambiguierung von Bedrohungen für MSR/ESE Methoden zu verbessern. Wir konzentrieren uns auf eine bessere Disambiguierung von Bedrohungen durch Simulationen, indem wir die Argumentation über Bedrohungen operationalisieren und die Auswirkungen auf eine gültige Datenanalysemethodik explizit machen. Wir ermutigen Forschende, „gefälschte“ Simulationen ihrer MSR/ESE-Szenarien zu erstellen, um relevante Erkenntnisse über alternative plausible Ergebnisse, negative Ergebnisse, potenzielle Bedrohungen und die verwendeten Datenanalysemethoden zu operationalisieren. Wir beweisen, dass eine solche Art des simulationsbasierten Testens zur Disambiguierung von Bedrohungen in der veröffentlichten MSR/ESE-Forschung beiträgt.
Sind Menschen von einer Pflegebedürftigkeit in Deutschland betroffen, so regelt der durch § 14 SGB XI festgeschriebene Pflegebedürftigkeitsbegriff den Zugang zu Leistungen der Pflegeversicherung. Der Pflegebedürftigkeitsbegriff ist dabei ein normativ gesetzter und basiert bislang nicht auf empirischen Studien aus dem Bereich der Pflege und der Pflegewissenschaft. Durch seine gesetzliche Fundierung lenkt er die Bedingungen und Strukturen, unter welchen Pflegeleistungen in Deutschland von Pflegefachpersonen erbracht werden. Weiterhin ist davon auszugehen, dass die Pflegefachpersonen durch ihre professionelle Sozialisierung einen fachlichen Fokus auf das Konstrukt der Pflegebedürftigkeit legen, welcher sich vom Pflegebedürftigkeitsbegriff unterscheidet und strukturell nicht in die Leistungsbemessung einfließt. Daraus ergeben sich Aspekte einer pflegerischen Unter- und Überversorgung.
Die vorliegende Ph.D.-Thesis verfolgt das Anliegen, die Herausforderungen des Pflegebedürftigkeitsbegriffs in Deutschland aufzuzeigen, indem die Aspekte der Pflegebedürftigkeit von Pflegefachpersonen im ambulanten Setting im Hinblick auf deren Interaktion mit pflegebedürftigen Menschen empirisch erfasst und zu einem theoretischen Konzept ausgearbeitet werden. Zur methodischen Bearbeitung des Forschungsinteresses werden problemzzentrierte Interviews mit ambulanten Pflegefachpersonen geführt, die mit Rückbezug auf den Symbolischen Interaktionismus nach Herbert Blumer unter methodologischen und methodischen Gesichtspunkten mittels einer Grounded Theory nach Kathy Charmaz sowie Juliet Corbin und Anselm Strauss erhoben und ausgewertet werden. Dabei kommt ein reflexives-konstruktivistisches Forschen und Schreiben als Konsequenz der epistemologisch-methodologischen Fundierung der Autorin zur Anwendung.
Die erarbeitete Theorie beschreibt die Herausforderungen der Pflegebedürftigkeit aus Sicht der befragten Pflegefachpersonen. So werden in der Kernkategorie Aushandlungsprozesse in den Bereichen Nähe und Distanz, Anwaltschaft und Verantwortungsüberlassung sowie Ethos und Technokratie beschrieben. Sämtliche Aspekte zeigen auf, inwiefern der gesetzliche Pflegebedürftigkeitsbegriff zu Herausforderungen innerhalb der pflegerischen Arbeit führt. Die Ph.D.-Thesis liefert mit ihren Ergebnissen einen Beitrag zur Einordnung und Relevanz pflegerischer Beziehungsarbeit im Hinblick auf herrschende Rahmenbedingungen der Pflegebedürftigkeit und zeigt auf, inwiefern sich Interaktion und Kommunikation der Akteur*innen vor dem Anspruch individueller Pflege und dem deutschen ambulanten Pflegesystem wechselseitig bedingen. Sie liefert damit einen professionell und empirisch begründeten Ansatz für die Einschätzung und Bearbeitung von pflegefachlich erlebter Pflegebedürftigkeit.
In the last years, the public interest in epidemiology and mathematical modeling of disease spread has increased - mainly caused by the COVID-19 pandemic, which has emphasized the urgent need for accurate and timely modelling of disease transmission. However, even prior to that, mathematical modelling has been used for describing the dynamics and spread of infectious diseases, which is vital for developing effective interventions and controls, e.g., for vaccination campaigns and social restrictions like lockdowns. The forecasts and evaluations provided by these models influence political actions and shape the measures implemented to contain the virus.
This research contributes to the understanding and control of disease spread, specifically for Dengue fever and COVID-19, making use of mathematical models and various data analysis techniques. The mathematical foundations of epidemiological modelling, as well as several concepts for spatio-temporal diffusion like ordinary differential equation (ODE) models, are presented, as well as an originally human-vector model for Dengue fever, and the standard (SEIR)-model (with the potential inclusion of an equation for deceased persons), which are suited for the description of COVID-19. Additionally, multi-compartment models, fractional diffusion models, partial differential equations (PDE) models, and integro-differential models are used to describe spatial propagation of the diseases.
We will make use of different optimization techniques to adapt the models to medical data and estimate the relevant parameters or finding optimal control techniques for containing diseases using both Metropolis and Lagrangian methods. Reasonable estimates for the unknown parameters are found, especially in initial stages of pandemics, when little to no information is available and the majority of the population has not got in contact with the disease. The longer a disease is present, the more complex the modelling gets and more things (vaccination, different types, etc.) appear and reduce the estimation and prediction quality of the mathematical models.
While it is possible to create highly complex models with numerous equations and parameters, such an approach presents several challenges, including difficulties in comparing and evaluating data, increased risk of overfitting, and reduced generalizability. Therefore, we will also consider criteria for model selection based on fit and complexity as well as the sensitivity of the model with respect to specific parameters. This also gives valuable information on which political interventions should be more emphasized for possible variations of parameter values.
Furthermore, the presented models, particularly the optimization using the Metropolis algorithm for parameter estimation, are compared with other established methods. The quality of model calculation, as well as computational effort and applicability, play a role in this comparison. Additionally, the spatial integro-differential model is compared with an established agent-based model. Since the macroscopic results align very well, the computationally faster integro-differential model can now be used as a proxy for the slower and non-traditionally optimizable agent-based model, e.g., in order to find an apt control strategy.
Künstliche neuronale Netze sind ein beliebtes Forschungsgebiet der künst-
lichen Intelligenz. Die zunehmende Größe und Komplexität der riesigen
Modelle bringt gewisse Probleme mit sich. Die mangelnde Transparenz
der inneren Abläufe eines neuronalen Netzes macht es schwierig, effiziente
Architekturen für verschiedene Aufgaben auszuwählen. Es erweist sich als
herausfordernd, diese Probleme zu lösen. Mit einem Mangel an aufschluss-
reichen Darstellungen neuronaler Netze verfestigt sich dieser Zustand. Vor
dem Hintergrund dieser Schwierigkeiten wird eine neuartige Visualisie-
rungstechnik in 3D vorgestellt. Eigenschaften für trainierte neuronale Net-
ze werden unter Verwendung etablierter Methoden aus dem Bereich der
Optimierung neuronaler Netze berechnet. Die Batch-Normalisierung wird
mit Fine-tuning und Feature Extraction verwendet, um den Einfluss der Be-
standteile eines neuronalen Netzes abzuschätzen. Eine Kombination dieser
Einflussgrößen mit verschiedenen Methoden wie Edge-bundling, Raytra-
cing, 3D-Impostor und einer speziellen Transparenztechnik führt zu einem
3D-Modell, das ein neuronales Netz darstellt. Die Validität der ermittelten
Einflusswerte wird demonstriert und das Potential der entwickelten Visua-
lisierung untersucht.
Leichte Sprache (LS) ist eine vereinfachte Varietät des Deutschen in der barrierefreie Texte für ein breites Spektrum von Menschen, einschließlich gering literalisierten Personen mit Lernschwierigkeiten, geistigen oder entwicklungsbedingten Behinderungen (IDD) und/oder komplexen Kommunikationsbedürfnissen (CCN), bereitgestellt werden. LS-Autor*innen sind i.d.R. der deutschen Standardsprache mächtig und gehören nicht der genannten Personengruppe an. Unser Ziel ist es, diese zu befähigen, selbst am schriftlichen Diskurs teilzunehmen. Hierfür bedarf es eines speziellen Schreibsystems, dessen linguistische Unterstützung und softwareergonomische Gestaltung den spezifischen Bedürfnissen der Zielgruppe gerecht wird. EasyTalk ist ein System basierend auf computerlinguistischer Verarbeitung natürlicher Sprache (NLP) für assistives Schreiben in einer erweiterten Variante von LS (ELS). Es stellt den Nutzenden ein personalisierbares Vokabular mit individualisierbaren Kommunikationssymbolen zur Verfügung und unterstützt sie entsprechend ihres persönlichen Fähigkeitslevels durch interaktive Benutzerführung beim Schreiben. Intuitive Formulierungen für linguistische Entscheidungen minimieren das erforderliche grammatikalische Wissen für die Erstellung korrekter und kohärenter komplexer Inhalte. Einfache Dialoge kommunizieren mit einem natürlichsprachlichen Paraphrasengenerator, der kontextsensitiv Vorschläge für Satzkomponenten und korrekt flektierte Wortformen bereitstellt. Außerdem regt EasyTalk die Nutzer*innen an, Textelemente hinzuzufügen, welche die Verständlichkeit des Textes für dessen Leserschaft fördern (z.B. Zeit- und Ortsangaben) und die Textkohärenz verbessern (z.B. explizite Diskurskonnektoren). Um das System auf die Bedürfnisse der Zielgruppe zuzuschneiden, folgte die Entwicklung von EasyTalk den Grundsätzen der menschzentrierten Gestaltung (UCD). Entsprechend wurde das System in iterativen Entwicklungszyklen ausgereift, kombiniert mit gezielten Evaluierungen bestimmter Aspekte durch Gruppen von Expert*innen aus den Bereichen CCN, LS und IT sowie L2-Lernende der deutschen Sprache. Eine Fallstudie, in welcher Mitglieder der Zielgruppe das freie Schreiben mit dem System testeten, bestätigte, dass Erwachsene mit geringen Lese-, Schreib- und Computerfähigkeiten mit IDD und/oder CCN mit EasyTalk eigene persönliche Texte in ELS verfassen können. Das positive Feedback aller Tests inspiriert Langzeitstudien mit EasyTalk und die Weiterentwicklung des prototypischen Systems, wie z.B. die Implementierung einer s.g. Schreibwerkstatt.
In a world where language defines the boundaries of one's understanding, the words of Austrian philosopher Ludwig Wittgenstein resonate profoundly. Wittgenstein's assertion that "Die Grenzen meine Sprache bedeuten die Grenzen meiner Welt" (Wittgenstein 2016: v. 5.6) underscores the vital role of language in shaping our perceptions. Today, in a globalized and interconnected society, fluency in foreign languages is indispensable for individual success. Education must break down these linguistic barriers, and one promising approach is the integration of foreign languages into content subjects.
Teaching content subjects in a foreign language, a practice known as Content Language Integrated Learning (CLIL), not only enhances language skills but also cultivates cognitive abilities and intercultural competence. This approach expands horizons and aligns with the core principles of European education (Leaton Gray, Scott & Mehisto 2018: 50). The Kultusministerkonferenz (KMK) recognizes the benefits of CLIL and encourages its implementation in German schools (cf. KMK 2013a).
With the rising popularity of CLIL, textbooks in foreign languages have become widely available, simplifying teaching. However, the appropriateness of the language used in these materials remains an unanswered question. If textbooks impose excessive linguistic demands, they may inadvertently limit students' development and contradict the goal of CLIL.
This thesis focuses on addressing this issue by systematically analyzing language requirements in CLIL teaching materials, emphasizing receptive and productive skills in various subjects based on the Common European Framework of Reference. The aim is to identify a sequence of subjects that facilitates students' language skill development throughout their school years. Such a sequence would enable teachers to harness the full potential of CLIL, fostering a bidirectional approach where content subjects facilitate language learning.
While research on CLIL is extensive, studies on language requirements for bilingual students are limited. This thesis seeks to bridge this gap by presenting findings for History, Geography, Biology, and Mathematics, allowing for a comprehensive understanding of language demands. This research endeavors to enrich the field of bilingual education and CLIL, ultimately benefiting the academic success of students in an interconnected world.
The trends of industry 4.0 and the further enhancements toward an ever changing factory lead to more mobility and flexibility on the factory floor. With that higher need of mobility and flexibility the requirements on wireless communication rise. A key requirement in that setting is the demand for wireless Ultra-Reliability and Low Latency Communication (URLLC). Example use cases therefore are cooperative Automated Guided Vehicles (AGVs) and mobile robotics in general. Working along that setting this thesis provides insights regarding the whole network stack. Thereby, the focus is always on industrial applications. Starting on the physical layer, extensive measurements from 2 GHz to 6 GHz on the factory floor are performed. The raw data is published and analyzed. Based on that data an improved Saleh-Valenzuela (SV) model is provided. As ad-hoc networks are highly depended onnode mobility, the mobility of AGVs is modeled. Additionally, Nodal Encounter Patterns (NEPs) are recorded and analyzed. A method to record NEP is illustrated. The performance by means of latency and reliability are key parameters from an application perspective. Thus, measurements of those two parameters in factory environments are performed using Wireless Local Area Network (WLAN) (IEEE 802.11n), private Long Term Evolution (pLTE) and 5G. This showed auto-correlated latency values. Hence, a method to construct confidence intervals based on auto-correlated data containing rare events is developed. Subsequently, four performance improvements for wireless networks on the factory floor are proposed. Of those optimization three cover ad-hoc networks, two deal with safety relevant communication, one orchestrates the usage of two orthogonal networks and lastly one optimizes the usage of information within cellular networks.
Finally, this thesis is concluded by an outlook toward open research questions. This includes open questions remaining in the context of industry 4.0 and further the ones around 6G. Along the research topics of 6G the two most relevant topics concern the ideas of a network of networks and overcoming best-effort IP.
Gemeinsame Prüfungsordnung für den Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“ an der Hochschule Koblenz und der Universität Koblenz (Kooperativer Bachelorstudiengang)
Gemeinsame Prüfungsordnung für den Masterstudiengang „Gewässerkunde und Wasserwirtschaft“ an der Universität Koblenz und der Hochschule Koblenz (Kooperativer Masterstudiengang)
Satzung zur Sicherung guter wissenschaftlicher Praxis an der Universität Koblenz
Erste Ordnung zur Änderung der Wahlordnung für die Wahlen der Organe der Universität Koblenz
Prüfungsordnung für die Prüfung im Bachelorstudiengang Computational Social Science an der Universität Koblenz
Einunddreißigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz
Siebenundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz
Achtzehnte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang berufsbildende Schulen an der Universität Koblenz und der Hochschule Koblenz
Siebzehnte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang für das Lehramt an berufsbildenden Schulen an der Universität Koblenz und der Hochschule Koblenz
Achtundzwanzigste Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz und der Hochschule Koblenz
Dritte Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für die Bachelor- und Masterstudiengänge des Fachbereichs Informatik an der Universität Koblenz
Vierundzwanzigste Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz
Satzung zur Festsetzung von Zulassungszahlen an der Universität Koblenz für das Studienjahr 2023/2024
Satzung zur Festsetzung der Normwerte für den Ausbildungsaufwand (Curricularnormwerte) der Universität Koblenz
Satzung der Universität Koblenz über das Auswahlverfahren in zulassungsbeschränkten Studiengängen
Qualitätssicherungskonzept für das Promotions- und Habilitationswesen der Universität Koblenz (Satzung über die Genehmigung von Promotions- und Habilitationsordnungen)
Dritte Ordnung zur Änderung der Prüfungsordnung für Studierende des Bachelorstudiengangs „Pädagogik“ (B.A.) und des Masterstudiengangs „Erziehungswissenschaft mit dem Schwerpunkt Forschung und Entwicklung in Organisationen“ (M.A.) des Fachbereichs 1: Bildungswissenschaften an der Universität Koblenz
Ordnung zum Betrieb eines Forschungsinformationssystems an der Universität Koblenz (FIS-Ordnung)