Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (11)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1139)
- Englisch (546)
- Mehrsprachig (4)
- Spanisch (2)
Gehört zur Bibliographie
- nein (1691) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (335)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (145)
- Institut für Management (117)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Das Projekt Ziel der Studienarbeit war, eine physikalisch basierte Echtzeitsimulation eines volumetrischen Fluids in Form einer Rauchentwicklung auf der GPU zu realisieren und diese in eine Echtzeitanwendung zu integrieren. Motivation Mit Hilfe von Fluidsimulationen lassen sich einige der faszinierendst anzuschauenden Naturphänomene wie Rauch, Wolken oder auch Feuer und Wasser realistisch darstellen. Ausserdem könnten mit physikalischbasierten Fluidsimulationen eine große Fülle neuer Interaktionsmöglichkeiten innerhalb einer simulierten Welt realisiert werden. Wasser könnte realistisch fließen und Gegenstände mit sich reißen oder ganze Landschaften überfluten, Wind- und Luftströmungen könnten Segelschiffe antreiben oder sogar zerstörerische Wettereffekte wie Tornados simulieren etc... Die Fluidsimulation Der Rauch kann um Objekte im Fluidvolumen strömen, auf Temperaturunterschiede reagieren und dynamisch beleuchtet werden. Die Fluidsimulation nutzt dabei einen rasterbasierten Ansatz um die Navier-Stokes Gleichungen zu lösen und Partikel durch das Volumen zu transportieren. Objekte können voxelisiert werden und den Fluss im Fluidvolumen beeinflussen. Eine Temperatursimulation sorgt für eine realistische Rauchentwicklung, in dem Partikel, die sich von eine Wärmequelle entfernen zu Boden fallen. Der Rauch kann zudem durch die approximierte Simulation von Licht-Streuungseffekten (scattering) dynamisch und realitätsnah in Echtzeit beleuchtet werden Für eine möglichst artefaktfreie dreidimensionale Visualisierung des Volumens kommt als Rendering-Verfahren View-aligned Volume Slicing zum Einsatz. Ergebnis Das Ergebnis der Arbeit zeigt, Fluidsimulationen lassen sich heute mit Hilfe der GPU in Echtzeit in erstaunlicher Qualität darstellen und sogar in Echtzeitanwendungen integrieren. Es wurde neben der Fluidsimulation ein OpenGL-Renderer als Echtzeitanwendung entworfen, um die Möglichkeiten der Integration einer Fluidsimulation in eine solche Anwendung zu demonstrieren. In dem Programm können zudem zahlreiche Parameter der Fluidsimulation zur Laufzeit manipuliert und gespeichert werden. Der Nutzer kann sich so mit den vielfältigen Möglichkeiten und faszinierenden Effekten einer Fluidsimulation vertraut machen.
Der RIPMTI-Algorithmus wurde entwickelt um die Schleifenerkennung in Rechnernetzen zu verbessern. Das Count-To-Infinity-Problem (kurz: CTI) führt dazu, dass ein Netzwerk nur sehr langsam in einen konvergenten Zustand gelangt. Der Hopcount-Wert 16, der als künstliche Beschränkung des CTI eingeführt wurde, beschränkt leider auch die maximale Topologietiefe eines Netzwerkes. Diese Arbeit soll zeigen wie sich eine schrittweise Erhöhung des Hopcount-Wertes und darüber hinaus die Änderung der Updatezeiten jedes Routers auf die Konvergenzzeiten unterschiedlicher Netzwerk-Szenarios auswirkt.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Die Studienarbeit soll eine Vorstellung davon vermitteln, in welcher ökonomischen Größenordnung Kopierschutzmaßnahmen anzusiedeln sind. Es wird erläutert, dass die Wirksamkeit von Schutzmechanismen neben der eigentlichen Funktionalität einen ausschlaggebenden Einfluss auf die Wirtschaftlichkeit eines Produktes nimmt. Dieser Grundsatz liegt in der Verantwortung der Softwarehersteller. Gesetzliche Rahmenbedingungen im Urheberrecht regeln den Umgang mit digitalen Gütern von staatlicher Seite aus. Das Zusammenspiel der beiden Institutionen, Staat und Privatunternehmen, wird in dieser Arbeit untersucht. Beschrieben wird ein Überblick über Schutzmechanismen von Computerspielen, indem die aktuell gebräuchlichen Kopierschutzmechanismen in ihrer Funktionsweise und Wirksamkeit vorgestellt werden. Ein anschließender Vergleich soll Aufschluss auf mögliche Unterschiede oder Gemeinsamkeiten geben. Anhand der hierbei gewonnenen Erkenntnisse folgt dann eine kritische Beurteilung mit einem Ausblick auf zukünftige Trends und Entwicklungen zur Vermeidung der Softwarepiraterie. Diese Arbeit soll nicht als Anleitung zur Softwarepiraterie missverstanden werden und soll auch nicht als Anregung dazu missbraucht werden.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
In dieser Masterarbeit wird der Frage nachgegangen, welche Konzepte des analytischen CRM Unternehmen brauchen und inwieweit sich diese von BI-Software realisieren lassen. Es soll dabei empirisch untersucht werden, welche Analyseinstrumente des analytischen CRM von Unternehmen benötigt werden und wie sie mit Techniken des Business Intelligences umgesetzt werden können. Zu der konzeptionellen Aufgabenstel-lung gehört die Entwicklung eines Konzeptes für die Realisierung von analytischem CRM mit Hilfe von Business Intelligence für die CRM-Software "GEDYS IntraWare 7".
Wirkfaktoren von Achtsamkeit: Wirkt Achtsamkeit durch Verringerung der affektiven Reaktivität?
(2009)
Die vorliegende Forschungsarbeit untersucht mögliche Wirkfaktoren von Achtsamkeit. Wirkfaktoren sind dabei die Prozesse, die die Effekte von Achtsamkeit auf Wohlbefinden und Gesundheit vermitteln. Bisherige Studien des Forschungsfelds haben sich auf den Nachweis der Wirksamkeit (vgl. Baer, 2003; Grossman, Niemann, Schmidt & Walach, 2004) sowie die Entwicklung von psychometrischen Achtsamkeitstests konzentriert (z.B. Brown & Ryan, 2003; Walach et al., 2006). Die Frage nach den Wirkfaktoren von Achtsamkeit ist demgegenüber bisher weitgehend unbeantwortet. Erst seit kurzem widmen sich Forschungsarbeiten dieser Frage (Arch & Craske, 2006; Shapiro, Carlson, Astin & Friedman, 2006; Zeidler, 2007). Kenntnis der Wirkfaktoren von Achtsamkeit ist der Schlüssel zum Verständnis des Phänomens sowie zur Verbesserung von Interventionen. Aus diesem Grund ist die Erforschung der Wirkfaktoren von Achtsamkeit die nächste zentrale Aufgabe des Forschungsfelds. Basierend auf einer Analyse des theoretischen Fundaments des Konstrukts " insbesondere der buddhistischen Psychologie " wird in dieser Arbeit "Verringerung von affektiver Reaktivität" als Wirkfaktor angenommen (Kalupahana, 1992; Davids, 2002; De Silva, 2005). Affektive Reaktivität bezeichnet die Tendenz, auf affektive Reize (z.B. unangenehme Bilder) mit affektiven Reaktionen (z.B. negativen Gefühlen) zu antworten. Das entsprechende Mediatormodell (Prädiktor: Achtsamkeit; Mediator: affektive Reaktivität; Kriterium: habituelles Wohlbefinden) wird in drei Studien empirisch untersucht. Studie I (N=247) fokussiert auf eine behaviorale Operationalisierung von affektiver Reaktivität anhand von expliziten (z.B. Bewertung aversiver Bilder) und impliziten (z.B. Emotional Stroop) Maßen. Studie II (N=221) erfasst alle Variablen des Modells mit Fragebögen. Beide Studien sind korrelativ und querschnittlich aufgebaut. Studie III (N=189) induziert experimentell State-Achtsamkeit und prüft die Effekte auf die Bewertung aversiver Bilder. Insgesamt bestätigen die Studien das vorgeschlagene Modell teilweise. Dabei finden sich soÂwohl für Fragebogen als auch für behaviorale Erfassung hypothesenkonforme Ergebnisse. AlÂlerdings sind die Effekte für fragebogenbasierte Operationalisierungen stärker als für behaviorale Erfassung von affektiver Reaktivität. Das Design der Studien begrenzt die interne Validität, so dass die Ergebnisse als erste Hinweise zu verstehen sind. Zukünftige Studien sollten sich weiter auf diesen Wirkfaktor aber auch auf weitere mögliche Wirkfaktoren konzentrieren. Zur Erhöhung der internen Validität sind längsschnittliche Designs, experimentelle Designs und alternative OperationalisierÂungen vonnöten.
Die Arbeit beschäftigt sich mit dem Einsatz moderner Grafikhardware (GPU) für die Visualisierung und Verarbeitung medizinischer Volumendaten. Die zunehmende Steigerung der Rechenleistung ermöglicht den Einsatz von Standardsystemen für Anwendungsgebiete, die bisher nur speziellen Workstations vorbehalten waren. Zusammen mit dem wesentlichen Vorteil von Grafikhardware Daten direkt anzeigen zu können, sind Verfahren wie visualisierungsgestütztes Berechnen ("visual computing") oder interaktives Steuern von Berechnungen ("computational steering") erst möglich geworden. Darauf wird anhand mehrerer Beispielanwendungen und umgesetzten Konzepten wie den "ray textures" im Detail eingegangen. Da die zu verarbeitenden und darzustellenden Datenmengen stetig ansteigen, ist aufgrund von Speicher- und Bandbreiteneinschränkungen eine kompakte Repräsentation der Daten notwendig. Während die Datenkompression selbst eingehend erforscht wurde, beschäftigt sich die vorliegende Arbeit mit Möglichkeiten, Berechnungen direkt auf den komprimierten Daten durchführen zu können. Dazu wurden verschiedene Algorithmenklassen identifiziert und in die Wavelet-Domäne übertragen. Mit Hilfe von speziellen Varianten der komprimierten Repräsentation ist eine effiziente Umsetzung grundlegender Bildverarbeitungsalgorithmen möglich und zeigt zugleich das Potential dieses Ansatzes auf. Aus technischer Sicht wurde im Laufe der Arbeit die GPU-basierte Programmierumgebung "Cascada" entwickelt. Sowohl die Einführung von objektorientierten Konzepten in die Shaderprogrammierung, als auch eine hierarchische Repräsentation von Berechnungs- und/oder Visualisierungsschritten vereinfacht den Einsatz von Grafikhardware ohne wesentliche Leistungseinbußen. Dies wird anhand verschiedener Implementationen in den jeweiligen Beiträgen und zwei klinischen Projekten im Bereich der Diagnoseunterstützung gezeigt. Hierbei geht es zum einen um die semi-automatische Segmentierung der Leber in niedrig aufgelösten MR-Datensätzen, zum anderen um Möglichkeiten zur Vermessung von abdominalen Aortenaneurysmen; jeweils unterstützt durch Grafikhardware. Darüber hinaus ermöglicht "cascada" auch die Erweiterung hinsichtlich aktueller Architekturen für den universellen Einsatz von Grafikhardware, sowie künftige Entwicklungen durch ein modulares Design.
Seit 2005 beschäftige ich mich im Rahmen der Künstlergruppe "Farbraum" mit visuellen Installationen und live Video Performaces auf kulturellen Events. Dafür haben wir einzelne Video-Performance Applikationen entwickelt, die die Probleme einzelner Projekte lösen.Was uns bisher noch nicht gelang ist a) eine modulare Softwarearchitektur zu entwickeln und b) ein Werkzeug zur Entzerrung ebener Flächen, die nicht rechtwinklig projiziert werden, zu erstellen (unter der Annahme, dass Projektoren verwendet werden). Diese Arbeit beschreibt die Lösung des ersten Problems durch die Entwicklung eines modularen Frameworks und des zweiten Problems durch die Implementation eines benutzerfreundlichen Moduls zur Entzerrung von ebenen Flächen. Die Entzerrung findet komplett manuell statt, indem der Benutzer die Koordinaten der Flächeneckpunkte durch das Ziehen der Punkte mit der Maus verändert. Dabei werden die xund y-Werte der Eckpunkte verändert, der z-Wert bleibt konstant. Während auf diese Weise die 3D-Interaktion mittels eines 2D-Eingabegeräts verhindert wird, führt die ausschließlich zweidimensionale Transofrmation der Flächen zu unerwünschten Textur-Mapping Artifakten, die durch das Triangulierungs-basierte Rendern von Grafikkarten entstehen. Um diese Artifakte zu vermeiden, wird ein Verfahren names "adaptive Subdivision" vorgestellt, das die entsandenen Rendering-Fehler korrigiert.
Im Rahmen der Diplomarbeit "Enterprise Architectures für Hochschulverwaltungen: Analyse und Empfehlungen für die Universität Koblenz-Landau" wird eine Lösung entwickelt, die eine ganzheitliche Sicht auf die Geschäftsarchitektur unserer Universitätsverwaltung bietet. Im Mittelpunkt stehen dabei die Arbeitsprozesse innerhalb der Verwaltung, die von den Sachbearbeitern durchgeführt werden. Ein weiterer Betrachtungsgegenstand ist die vorhandene Anwendungsarchitektur. Diese wird zur Unterstützung der Aufgaben und Tätigkeiten eingesetzt. Die Beschreibung der Architekturen erfolgt durch Modellierungen. Diese sind ein wichtiges Instrument für die Kommunikation zwischen unterschiedlichen Beteiligten. Zu Beginn der Qualifikationsarbeit werden aktuelle Forschungsprojekte unterschiedlicher Hochschulen vorgestellt. Beschrieben werden bekannte Enterprise Architecture Frameworks sowie Analyse- und Modellierungsmethoden. Im empirischen Teil der Ausarbeitung wird das Konzept zur Analyse dargestellt. Es folgt eine Beschreibung der Ist-Architektur durch Prozesslandkarten, Informationsflussgraphiken, einen Bebauungsplan und ein Prozessmodell. Im Anschluss daran wird eine Bewertung der Architekturen vorgenommen. Am Ende der Arbeit werden interne Handlungsempfehlungen und Empfehlungen für die Kommunikation mit externen Organisationen gegeben. Ein existierender Prozess, die Anzeige von Drittmittelprojekten, wird analysiert, modelliert und bewertet. Es wird der Prototyp eines Informationssystems präsentiert, der den Prozess informationstechnisch unterstützen kann. Abgerundet wird die Diplomarbeit durch Hinweise für die weitere Umsetzung, eine Zusammenfassung und einen Ausblick.
Das übergeordnete Ziel der vorliegenden Arbeit ist die Verbesserung von Lehren und Lernen im Physikunterricht. Damit fügt sie sich in den Bereich physikdidaktischer Forschung ein, die eine forschungsbasierte Entwicklung und Evaluation von Unterricht zum Gegenstand hat, sich also auf die empirische Lehr-Lern-Forschung konzentriert. Die Motivation dazu basiert dabei auf drei in der aktuellen physikdidaktischen Diskussion prioritären Defiziten: Die mangelnde Fähigkeit deutscher Lernender zur Anwendung ihres physikalischen Wissens in neuen Kontexten, die Realitätsferne der Aufgaben und Inhalte des deutschen Physikunterrichts sowie die unzureichende Einbindung der auf diesen Erkenntnissen basierenden Konzepte in den Physikunterricht. Diese Defizite stellen die physikdidaktische Forschung vor drei grundlegende Aufgaben: Initiierung stärker schüler- und anwendungsorientierter Lehr-Lernprozesse, Hervorhebung der Bedeutung einer neuen "Aufgabenkultur" im Rahmen authentischer Problemstellungen sowie Entwicklung von Konzepten zur nachhaltigen Implementation neuer Erkenntnisse in den Physikunterricht. Der Anspruch dieser Arbeit ist die Reduktion der analysierten Defizite. Dazu erfolgt die Ausrichtung auf drei Ziele hin: Die theoriegeleitete Entwicklung praktikabler und flexibler Lernmedien im Rahmen aufgabenorientierter Lernumgebungen, die Implementation und detaillierte empirische Untersuchung des entwickelten Ansatzes sowie die Bildung einer "Learning Community" zur Unterrichtsentwicklung. Dazu wird basierend auf dem instruktionspsychologischen "Anchored Instruction"-Ansatz theoriegeleitet das Konzept einer Modifizierten "Anchored Instruction" (MAI) entwickelt. Dieses greift die Vorzüge der originären Rahmentheorie auf und behebt zudem die damit verbundenen Probleme durch die Umsetzung von drei Leitlinien: "Praktikabilität", "Flexibilität" und "empirische Forschung". Dies wird hier durch die Entwicklung und theoretische Einbettung von "Zeitungsaufgaben" als authentisch wirkendes Lernmedium zur Verankerung des Wissens an realitätsnahen Lerngegenständen verdeutlicht. Die Effektivität der Implementation von "Zeitungsaufgaben" als Lernmedium im Physikunterricht im Sinne des MAI-Ansatzes bildet dabei den ersten Untersuchungsschwerpunkt. Es wird Breitenwirkung und Robustheit des Ansatzes hinsichtlich Lerneffekt und Motivation im Rahmen einer Interventionsstudie mit 911 Lernenden, 15 Lehrkräften und in insgesamt 39 Schulklassen an zehn verschiedenen Schulen untersucht. Die durch Mehrebenenanalysen erhaltenen Ergebnisse zeigen, dass "Zeitungsaufgaben" themenübergreifend zu größerer Motivation und Leistungsfähigkeit der Lernenden führen als "traditionelle" Aufgaben und dass diese Überlegenheit zudem auch wenigstens mittelfristig Bestand hat (Motivation: p < 0.001; Cohens d = 0.87; Leistung: p < 0.001; Cohens d = 1.13). Zudem wurden vielfache Einflüsse von Moderatorvariablen auf die Motivations- und Lerneffekte geprüft (Lehrkraftmerkmale, Geschlecht, Thema, Schulart, Physik-Vorleistung, Intelligenz und Textverständnis). Es zeigt sich, dass die positive Wirkung von "Zeitungsaufgaben" auf die Motivation der Lernenden weitgehend unempfindlich gegenüber diesen Einflussfaktoren ist. Hingegen wird die Lernleistung neben der großen, positiven Wirkung von "Zeitungsaufgaben" zudem noch durch die Physik-Vorleistung sowie durch die Ausprägung des Interesses der Lehrkräfte am Unterrichten von Physik beeinflusst, und zwar in praktisch bedeutsamen Ausmaß. Neben Breitenwirkung und Robustheit des MAI-Ansatzes stellt dessen Optimierung im Rahmen einer Interventionsstudie den zweiten Untersuchungsschwerpunkt dar. Diese Detailuntersuchung resultiert aus dem Zusammenhang zwischen Authentizität und Komplexität einerseits und kognitiver Belastung andererseits. Bezogen auf das MAI-Lernmedium " Zeitungsaufgabe" steht dabei die Optimierung des Instruktionstextes " also des Zeitungsartikels " im Zentrum der Untersuchung. Es wird nachgewiesen, dass "Zeitungsaufgaben" mit mittelschweren Zeitungsartikeln sowohl Motivation als auch Lernleistung besser fördern als "Zeitungsaufgaben" mit leichten oder schweren Zeitungsartikeln. Dagegen sind Motivation und Leistung bei der Arbeit mit "traditionellen Aufgaben" umso geringer je schwieriger der Aufgabentext ist. Zudem wird im Rahmen von Pfadanalysen ein Wirkgefüge modelliert, das kausale Zusammenhänge zwischen verschiedenen Variablen darstellt, die die positive Wirkung von "Zeitungsaufgaben" auf Motivation und Leistungsfähigkeit beeinflussen. Dieses Kausalmodell verdeutlicht, dass die positive Wirkung von "Zeitungsaufgaben" am stärksten davon abhängt, wie stark die laut Theorie für ein MAI-Lernmedium erforderlichen Merkmale auch tatsächlich von den Lernenden als solche wahrgenommen werden (Motivation: p < 0.001; b = 0.40; Leistung: p < 0.001; b = 0.30). Ein Konzept zur Einbindung der auf Erkenntnissen der Lehr-Lern-Forschung basierenden Maßnahmen in den Physikunterricht stellt den Abschluss dieser Arbeit dar.
Die Arbeit befasst sich mit der Thematik "Frauen und Computerspiele". Um einen kurzen Überblick über die Thematik zu geben, werden zunächst einige aktuelle Studien präsentiert. Anschließend werden bisherige Erkenntnisse zu den Vorlieben weiblicher Computerspieler herausgestellt. Insbesondere wird untersucht, was Frauen motiviert, Computerspiele zu spielen, welche Themen und Konfliktlösungen sie bevorzugen. Auch die Zugangsweise zum Computer wird betrachtet und die Frage, wie hoch die Fehlertoleranz von Frauen bei Computerspielen ist. Um die Präferenzen weiblicher Spieler untersuchen zu können, wird ein Casual Game mit zwei unterschiedlichen Leveln entwickelt. Das erste ähnelt vom Aufbau her Casual Games, die aktuell im Internet zu finden sind und schon einige Frauen begeistert haben, z.B. "Cake Mania". In das Spiel, insbesondere in das zweite Level, sind zusätzliche Elemente eingebaut, welche den ausgearbeiteten Vorlieben entsprechen. Abschließend wird das Spiel weiblichen Testpersonen über das Internet zur Verfügung gestellt, und über einen Online-Fragebogen werden die herausgearbeiteten Thesen überprüft.
Entwicklung eines Computermodells der lumbalen Wirbelsäule zur Bestimmung mechanischer Belastungen
(2009)
Ziel der Arbeit war die Erstellung eines MKS-Modells der menschlichen lumbalen Wirbelsäule zur Ermittlung der mechanischen Belastungen innerer Körperstrukturen. Die Oberflächen der Wirbelkörper wurden aus CT-Daten menschlichen Sektionsguts als CAD-Oberflächen generiert und bilden das Grundgerüst des Modells. Die genaue Positionierung des Facettengelenke ist dabei vorgegeben ebenso wie die Ansatzpunkte und Verlaufsrichtungen der ligamentösen Strukturen. Zwischen den starren Wirbelkörpern wurden elastische Bandscheiben eingeführt, deren Mittelpunkte als jeweiliges Drehzentrum der entsprechenden funktionalen Einheiten definiert sind. Damit sind gleichzeitig die Hebelarme zu den Ansatzpunkten der einzelnen Bänder festgelegt. Das mechanische Verhalten dieser verschiedenen Strukturen wurde über physiologische Gleichungen oder Kennlinien in das Modell implementiert. So wurde für die Facettengelenke ein Ansatz für Kontaktkräfte in horizontaler Richtung eingeführt. Für die Kraftentwicklung bei Dehnung der Bänder fanden individuelle Kennlinien aus der Literatur Verwendung. Bei der Deformation der Bandscheiben folgt die Kraftentwicklung einer mechanischen Relation in Abhängigkeit der Deformation sowie der Deformationsgeschwindigkeit. Die entsprechenden Materialkonstanten in den Gleichungen wurden über experimentelle Messdaten aus der Literatur ermittelt. Dem Aufbau von Drehmomenten bei Auslenkung der Bandscheiben um die drei möglichen Rotationsachsen liegen wiederum Kennlinien aus der Literatur zugrunde. In Anpassung an diese experimentell ermittelten Kurven wurden mechanische Gleichungen entwickelt, die letztendlich in das Modell implementiert wurden und die bei jeweiliger Verdrehung der Bandscheibe die Entwicklung eines entsprechenden Moments angeben. Die Validierung des Modells erfolgt auf der einen Seite über die Gleichgewichtsbedingung, bei der die Summe aller Kräfte und Drehmomente bezüglich des Schwerpunkts einer funktionalen Einheit Null sein muss. Dieser Zustand konnte mit dem Modell eindeutig nachgewiesen werden. Auf der anderen Seite konnten punktuell Messergebnisse aus der Literatur über die Modellrechnungen in guter Näherung reproduziert werden. Hier besteht jedoch die Schwierigkeit, dass Messungen an Sektionsgut immer nur in isoliertem Zustand und in einem definierten Versuchsaufbau mit Belastung nur einer Richtung durchgeführt wurden. Innerhalb des Modells befinden sich die Strukturen in einem beweglichen Verbund und unterliegen damit vielfältigen mechanischen Einflüssen, was der Realität im menschlichen Körper auch wesentlich mehr entspricht. Dennoch spiegelt das Materialverhalten der elastischen Elemente innerhalb des Modells größenordnungsmäßig die Ergebnisse der verschiedensten experimentellen Messungen aus der Literatur wider. Zur Simulation unterschiedlicher Belastungssituationen wurde das Modell der Lendenwirbelsäule in verschiedenen Fallbeispielen der Einwirkung einer jeweils konstanten äußeren Kraft unterschiedlicher Größe ausgesetzt. Nach einer kurzen Phase der Bewegung aller Teilstrukturen stellte sich in jedem gerechneten Fallbeispiel ein neuer Gleichgewichtszustand ein. Für alle implementierten Strukturen, wie Bandscheiben, Bänder und Facettengelenke, konnte der zeitliche Verlauf der Belastungszunahme sowie die Belastung im Endzustand berechnet werden. Eine Überprüfung ergab, dass sich alle Ergebnisse im physiologisch gesunden Wertebereich befanden. Damit ist der Nachweis erbracht, dass mit dem vorliegenden Modell ein Instrument entwickelt wurde, das im Rahmen der Genauigkeit des Modells die Belastung der inneren Strukturen bei äußerer Krafteinwirkung zuverlässig berechnet werden können. Die Anwendungen eines derartigen Modells sind vielfältiger Art. Durch Variationen von Parametern können die verschiedensten Situationen simuliert werden. Beispiele sind hier die Auswirkung von degenerierten Bandscheiben mit völlig anderem Materialverhalten auf die umgebenden gesunden Teilstrukturen. Weitere Krankheitsbilder wie schwache Bänder, Wirbelgleiten, Knochenveränderungen oder auch der Einfluss von operativen Maßnahmen wie Versteifung einzelner Abschnitte oder die Einsetzung von Implantaten können damit simuliert werden und ermöglichen quantitative Aussagen über die Veränderung der Beanspruchung der angrenzenden Strukturen. Als Beispiel einer Anwendung in der Medizin wurde der Fall einer degenerierten Bandscheibe aufgezeigt. Die Bandscheibe wurde chirurgisch entfernt und durch ein Implantat zur Versteifung ersetzt. Mit Hilfe der Simulationsrechnung wurde die Auswirkung der Versteifung auf die Deformation der angrenzenden Bandscheiben und die veränderte Kraftentwicklung dargelegt.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
In dieser Arbeit wurde untersucht, wie sich das bestehende Modell der Kabelsimulation verbessern lässt. Hierfür wurde zunächst analysiert, welches die Einflussfaktoren auf eine Simulation sind. Des Weiteren wurde der Einfluss der Rand- und Nebenbedingungen auf die Genauigkeit der Verlaufssimulation untersucht.
In dieser Arbeit werden drei Verfahren zur Objektentfernung aus Bildern einander gegenübergestellt. Zwei der ausgewählten Verfahren stammen aus dem Bereich der sogenannten Inpainting-Verfahren, während das dritte dem Forschungsgebiet der medizinischen Bildverarbeitung entnommen ist. Die Evaluation dieser Verfahren zeigt ihre jeweiligen Vor- und Nachteile auf und prüft ihre Anwendbarkeit auf das spezifische Problem, ein Farbkalibriermuster aus strukturdominierten Bildern zu entfernen. Auf der Grundlage dieser Eigenschaften werden abschließend mehrere Erweiterungen vorgestellt, die eine verbesserte Anwendbarkeit auf das gestellte Problem erreichen.
In der vorliegenden Arbeit werden verschiedene Ansätze zur Kalibrierung eines optischen Mikroskops behandelt. Dabei werden sowohl State-of-the-Art-Verfahren der Literatur implementiert als auch Verbesserungen an diesen Algorithmen durchgeführt, um die Ergebnisse stabiler und die Kalibrierung flexibler zu gestalten. Hierzu werden Algorithmen entwickelt, die einzelne Parameter der Kalibrierung vorkalibrieren können und somit das Endergebnis der eigentlichen Kalibrierung verbessern. Des weiteren werden diverse Techniken behandelt, die Störungen in den Eingabedaten unterdrücken und dadurch eine korrekte Modellschätzung für die Kalibrierung ermöglichen. Die Algorithmen werden dabei sowohl auf realen als auch auf synthetischen Daten untersucht und miteinander verglichen.