Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475) (entfernen)
Sprache
- Englisch (249)
- Deutsch (224)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Pestizid (8)
- Pflanzenschutzmittel (8)
- Führung (6)
- Inklusion (6)
- Grundwasserfauna (5)
- Landwirtschaft (5)
- Modellierung (4)
- Persönlichkeit (4)
- Software Engineering (4)
- Unterrichtsforschung (4)
Institut
- Fachbereich 7 (93)
- Fachbereich 8 (47)
- Institut für Informatik (35)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (29)
- Institut für Umweltwissenschaften (23)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (22)
- Fachbereich 5 (20)
- Institut für Computervisualistik (18)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (13)
- Institut für Wirtschafts- und Verwaltungsinformatik (13)
Diese Arbeit betrachtet das Thema Führung und Gesundheit und hat hierzu verschiedene Erkenntnisse der Literatur zusammengefasst, um diese von Führungskräften aus Wirtschaft und Polizei sowie von Personal- und Organisationsentwicklern bewerten zu lassen. Das Ziel war hierbei herauszufinden, ob die Führungskräfte und die Personal- und Organisationsentwickler das Thema als wichtig erachten, welche Hauptursachen sie für Fehlzeiten sehen und wie sie verschiedene Erkenntnisse der Literatur zum Gesundheitsmanagement einschätzen. Zusätzlich sollten sie bewerten, welche Maßnahmen sie als geeignet betrachten und welche Ressourcen notwendig sind, um die Mitarbeiter bei der Gesunderhaltung zu unterstützen. Schließlich sollten die Führungskräfte und die Personal- und Organisationsentwickler beurteilen, welcher Führungsstil als gesundheitsförderlich angesehen wird. Die Wirtschafts- und Polizeiführungskräfte sowie die Personal- und Organisationsentwickler erachten das Thema Gesundheit als wichtig und sehen es nicht nur als Modetrend an. Ihre Einschätzungen zu geeigneten Maßnahmen, die die Gesundheit der Mitarbeiter verbessern können, entsprechen überwiegend den aus der Literatur abgeleiteten Vorschlägen zur gesundheitsgerechten Führung. Die weitgehende Übereinstimmung der Sichtweisen in Forschung und Praxis legt nahe, dass die Erkenntnisse der Literatur zum Gesundheitsmanagement vermutlich von Praktikern als plausibel wahrgenommen werden.
Die nichtsuizidale Selbstverletzung (NSSV) wurde im DSM-5 als Störung zur weiteren Erforschung aufgenommen. Daher ist es wichtig, die vorgeschlagenen Diagnosekriterien hinsichtlich ihrer diagnostischen, klinischen und psychologischen Korrelate zu untersuchen. Zusätzlich ist eine klare Abgrenzung zur Borderline Persönlichkeitsstörung (BPS) notwendig, hierbei könnte die Untersuchung von Persönlichkeitseigenschaften helfen. Soziale Schwierigkeiten dienen oft als Auslöser von NSSV. Dennoch ist wenig erforscht, wie Jugendliche mit NSSV soziale Situation wahrnehmen. Ein neues Emotionserkennungsparadigma mit farbigen, dynamischen emotionalen Gesichtsausdrücken wurde entwickelt und an einer studentischen Stichprobe evaluiert, die für ihre hohe (HSA) oder niedrige soziale Ängstlichkeit (LSA) ausgewählt wurde. HSA zeigten eine Tendenz zu einer beeinträchtigten Erkennung von Gesichtsausdrücken. Des Weiteren konnte eine gute Konstruktvalidität für das Paradigma festgestellt werden.
In der Hauptstudie untersuchten wir die Charakteristika von NSSV, die Persönlichkeitseigenschaften und die Emotionserkennung bei 57 Jugendlichen mit NSSV, 12 Jugendlichen mit NSSV ohne Einschränkung und Leiden, 13 Jugendlichen mit BPS, einer klinischen Kontrollgruppe (n = 32) und einer nicht-klinischen Kontrollgruppe (n = 64). Die Teilnehmer wurden bezüglich psychischer Störungen befragt, füllten Fragebögen aus und nahmen am Emotionserkennungsparadigma teil.
Die Ergebnisse zeigten auf, dass Jugendliche mit NSSV im Vergleich zur klinischen Kontrollgruppe eine erhöhte Psychopathologie aufwiesen. Weiterhin fanden sich Gemeinsamkeiten sowie Unterschiede zwischen den Jugendlichen mit NSSV und Jugendlichen mit BPS. Jugendliche mit NSSV kennzeichnen sich durch eine hohe Schadensvermeidung und hohes Neugierverhalten im Vergleich zur klinischen Kontrollgruppe. Bei Jugendlichen mit BPS waren diese Persönlichkeitseigenschaften noch ausgeprägter. Weiterhin, konnten keine Gruppenunterschiede bezüglich der Emotionserkennung gefunden werden. Jugendliche mit NSSV bewerteten jedoch die Gesichtsausdrücke als unangenehmer und emotional aufwühlender.
Zusammenfassend zeigt sich NSSV als stark einschränkende Störung, die mit einer hohen Komorbidität einhergeht und mit spezifischen Persönlichkeitseigenschaften assoziiert ist. Die Ergebnisse liefern zusätzliche Evidenz für die neue Diagnose NSSV und weisen darauf hin, dass die vorgeschlagenen DSM-5 Kriterien hilfreich und notwendig sind.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Aquatic macrophytes can contribute to the retention of organic contaminants in streams, whereas knowledge on the dynamics and the interaction of the determining processes is very limited. The objective of the present study was thus to assess how aquatic macrophytes influence the distribution and the fate of organic contaminants in small vegetated streams. In a first study that was performed in vegetated stream mesocosms, the peak reductions of five compounds were significantly higher in four vegetated stream mesocosms compared to a stream mesocosm without vegetation. Compound specific sorption to macrophytes was determined, the mass retention in the vegetated streams, however, did not explain the relationship between the mitigation of contaminant peaks and macrophyte coverage. A subsequent mesocosm study revealed that the mitigation of peak concentrations in the stream mesocosms was governed by two fundamentally different processes: dispersion and sorption. Again, the reductions of the peak concentrations of three different compounds were in the same order of magnitude in a sparsely and a densely vegetated stream mesocosm, respectively, but higher compared to an unvegetated stream mesocosm. The mitigation of the peak reduction in the sparsely vegetated stream mesocosm was found to be fostered by longitudinal dispersion as a result of the spatial distribution of the macrophytes in the aqueous phase. The peak reduction attributable to longitudinal dispersion was, however, reduced in the densely vegetated stream mesocosm, which was compensated by compound-specific but time-limited and reversible sorption to macrophytes. The observations on the reversibility of sorption processes were subsequently confirmed by laboratory experiments. The experiments revealed that sorption to macrophytes lead to compound specific elimination from the aqueous phase during the presence of transient contaminant peaks in streams. After all, these sorption processes were found to be fully reversible, which results in the release of the primarily adsorbed compounds, once the concentrations in the aqueous phase starts to decrease. Nevertheless, the results of the present thesis demonstrate that the processes governing the mitigation of contaminant loads in streams are fundamentally different to those already described for non-flowing systems. In addition, the present thesis provides knowledge on how the interaction of macrophyte-induced processes in streams contributes to mitigate loads of organic contaminants and the related risk for aquatic environments.
Der Mittelstand ist das Rückgrat der deutschen Wirtschaft. Um erfolgreich agieren zu können, benötigt er geeignete Finanzierung in ausreichendem Umfang. Was aber zeichnet eine geeignete Finanzierung aus Sicht des Kapitalnehmers aus? Trotz der volkswirtschaftlichen Relevanz des Themas gibt es nur wenige empirische Studien über das Finanzierungsverhalten des Mittelstandes. Für diese Arbeit wurden sämtliche deutsche, mit PREPS finanzierte Unternehmen zur Teilnahme an einer Online-Befragung eingeladen. PREPS ist eine standardisierte mezzanine Finanzierung, die großen mittelständischen, bonitätsstarken Unternehmen angeboten wurde und mehrheitlich als Wachstumsfinanzierung verwendet wurde. Die finanzierten Unternehmen sind als Forschungsgegenstand besonders interessant, weil sie innerhalb des Mittelstandes aufgrund ihrer Größe und Bonität die breiteste Auswahl bei Finanzierungsentscheidungen haben. Finanzierungsinstrumente unterscheiden sich in der Ausgestaltung von ihren Rechten und Pflichten. Je nach Ausgestaltung kann eine Finanzierung neben der offensichtlichen Liquiditätsfunktion unterschiedliche weitere Funktionen wahrnehmen wie die Transformations-, Verhaltensbeeinflussungs- oder auch die Informationsfunktion. Die Haupthypothese dieser Arbeit ist, dass sich die finanzierten Unternehmen aus unterschiedlichen Gründen für dasselbe Finanzierungsinstrument entschieden haben und dass sich die unterschiedliche Wertschätzung der verschiedenen Eigenschaften des Finanzierungsinstruments aus unternehmens- und situationsspezifischen Besonderheiten ergeben. In den einzelnen Hypothesen über konkrete Zusammenhänge zwischen spezifischen Einflussfaktoren und Wertschätzungen von Finanzierungseigenschaften werden sowohl die zentralen Aussagen aus den Kapitalstrukturtheorien als auch aktuelle empirische Erkenntnisse zum Finanzierungsverhalten aufgegriffen und detailliert untersucht. Darüber hinaus wird einigen explorativen Hypothesen nachgegangen.
Flowering habitats to enhance biodiversity and pest control services in agricultural landscapes
(2015)
Die wachsende Nachfrage nach landwirtschaftlichen Produkten benötigt Bewirtschaftungslösungen, die die Lebensmittelproduktion unter minimaler Beeinträchtigung der Umwelt steigern. Durch den übermässigen Einsatz künstlicher Hilfsstoffe und die Landschaftsvereinfachung gefährdet die konventionelle landwirtschaftliche Intensivierung die Biodiversität und die damit verknüpften Ökosystemleistungen im landwirtschaftlichen Raum.
Agrarumweltmassnahmen (AES) werden häufig eingesetzt, um die negativen Auswirkungen konventioneller Intensivierung auf die Biodiversität zu mildern. Ihr bisher nur moderater Erfolg könnte jedoch von expliziteren Zielen bezüglich Ökosystemleistungen profitieren. Das Bereitstellen von Schlüsselressourcen für Nützlinge dürfte deren Häufigkeit, Fitness und Diversität, sowie die durch sie bereitgestellten Ökosystemleistungen begünstigen. Durch gezieltes Lebensraummanagement könnten AES sowohl die Biodiversität als auch die landwirtschaftliche Produktion fördern und so zu einer ökologischen Intensivierung beitragen.
Wir zeigen, dass gesäte mehrjährige Wildblumenstreifen, wie sie gegenwärtig in AES mit Fokus auf Biodiversitätsförderung umgesetzt werden, auch die biologische Kontrolle in benachbarten Kulturen fördern (Kapitel 2). Der Vergleich von Winterweizenfeldern mit angrenzendem Wildblumenstreifen, mit Feldern ohne Wildblumenstreifen, zeigte stark reduzierte Getreidehähnchendichten (Oulema sp.) und Pflanzenschaden nahe Wildblumenstreifen, sowie ein um 10 % gesteigerter Ertrag. Dies bestätigt Annahmen, wonach, für ihre positiven Auswirkungen auf die Biodiversität bekannte Wildblumenstreifen, auch Ökosystemleistung-en, wie biologische Schädlingskontrolle fördern können. Die positive Korrelation des Ertrags mit Blütenabundanz und –diversität weist auf Blütenressourcen als Schlüsselfaktor hin.
Um gesäte Blühstreifen für die verstärkte Bereitstellung von Ökosystemleistungen zu verbessern, benötigt es ein mechanistisches Verständnis davon, wie Organismen von Blütenressourcen profitieren. In Klimakabinenversuchen, die den Einfluss von einzelnen und mehreren blühenden Pflanzenarten auf Fitnesskomponenten von drei grundlegenden natürlichen Feind-Arthropoden von Blattläusen untersuchten, zeigen wir, dass natürliche Feinde unterschiedlich von den angebotenen Ressourcen profitieren (Kapitel 3).
Einige Blühpflanzenarten waren dabei im Allgemeinen wertvoller für natürliche Feinde als andere. Die Mischung aller Blütenpflanzen war zudem generell besser als Monokulturen, jedoch nicht besser als die jeweils beste Art in der Mischung (kein „transgressive overyielding“). Durch gezieltes Massschneidern von Blühstreifen auf die Bedürfnisse von wichtigen natürlichen Feinden von Kulturschädlingen, versuchten wir, die durch natürliche Feinde vermittelte biologische Schädlingskontrolle in Winterweizen (Kapitel 4) und Kartoffelkulturen (Kapitel 5) zu maximieren.
Unter Berücksichtigung der vielseitigen Ansprüchen von diversen natürlichen Feinden - aber nicht Schädlingen - bezüglich zeitlicher und räumlicher Bereitstellung von floralen, extrafloralen und strukturellen Ressourcen, konzipierten wir einjährige Nützlingsblühstreifen, die durch Einbau in die Kulturfolge wichtige Arthropoden an Ort und Zeit unterstützen, an denen sie benötigt werden. Tatsächlich zeigten Feldexperimente, dass Getreidehähnchen und Pflanzenschaden in Winterweizen um 40 % bis 61 % gesenkt werden können und Blattläuse in Kartoffelkulturen sogar um 77 %, wenn ein Nützlingsblühstreifen ins Feld gesät wurde. Diese Effekte waren nicht auf die Nähe zum Blühstreifen beschränkt und verhinderten oft, dass im Vergleich zu Feldern ohne Blühstreifen die Schadschwelle erreicht wurde. Dies zeigt, dass Nützlingsblühstreifen Insektizide ersetzen könnten. Alle adulten natürlichen Feinde waren innerhalb der Nützlingsblühstreifen zahlreicher als innerhalb von Kontrollstreifen. Der Überlauf (spillover) von Nützlingen ins Feld war jedoch auf wichtige natürliche Feinde, wie Laufkäfer (Winterweizen), Schwebfliegen (Kartoffeln) und Florfliegen (Win-terweizen und Kartoffeln) beschränkt, was deren dominante Rolle für die biologische Schäd-lingskontrolle nahelegt. In Kartoffeln erhöhten Nützlingsblühstreifen auch die Artenzahl Schwebfliegen in Streifen und Feld, was einen zusätzlichen Nutzen für die Diversität heraushebt.
Die vorliegenden Resultate liefern Einblicke in die Mechanismen, die der biologischen Schädlingskontrolle durch Nützlingsförderung (conservation biological control) unterliegen und heben das Potential von massgeschneidertem Lebensraum-Management für eine ökologische Intensivierung hervor.
Change of ecosystems and the associated loss of biodiversity is among the most important environmental issues. Climate change, pollution, and impoundments are considered as major drivers of biodiversity loss. Organism traits are an appealing tool for the assessment of these three stressors, due to their ability to provide mechanistic links between organism responses and stressors, and consistency over wide geographical areas.
Additionally, traits such as feeding habits influence organismal performance and ecosystem processes. Although the response of traits of specific taxonomic groups to stressors is known, little is known about the response of traits of different taxonomic groups to stressors. Additionally, little is known about the effects of small impoundments on stream ecosystem processes, such as leaf litter decomposition, and food webs.
After briefly introducing the theoretical background and objectives of the studies, this thesis begins by synthesizing the responses of traits of different taxonomic groups to climate change and pollution. Based on 558 peer-reviewed studies, the uniformity (i.e., convergence) in trait response across taxonomic groups was evaluated through meta-analysis (Chapter 2). Convergence was primarily limited to traits related to tolerance.
In Chapter 3, the hypothesis that small impoundments would modify leaf litter decomposition rates at the sites located within the vicinity of impoundments, by altering habitat variables and invertebrate functional feeding groups (FFGs) (i.e., shredders), was tested. Leaf litter decomposition rates were significantly reduced at the study sites located immediately upstream (IU) of impoundments, and were significantly related to the abundance of invertebrate shredders.
In Chapter 4, the invertebrate FFGs were used to evaluate the effect of small impoundments on stream ecosystem attributes. The results showed that heterotrophic production was significantly reduced at the sites IU. With regard to food webs, the contribution of methane gas derived carbon to the biomass of chironomid larvae was evaluated through correlation of stable carbon isotope values of chironomid larvae and methane gas concentrations.
The results indicated that the contribution of methane gas derived carbon into stream benthic food web is low. In conclusion, traits are a useful tool in detecting ecological responses to stressors across taxonomic groups, and the effects of small impoundments on stream ecological integrity and food web are limited.
Seit Jahrzehnten wird weltweit eine zunehmende Bedrohung der biologischen Vielfalt durch anthropogene Einflüsse beobachtet. Landschaften sind durch unterschiedliche Arten von anthro-pogenen Störungen geprägt. So vereinheitlichen großflächiger Ackerbau, die Pestizidanwen¬dung und das Entfernen von Korridoren eine Landschaft, wohingegen der Straßenbau sie fragmentiert. Beides führt zu einer Einschränkung von Habitaten und reduziert sowohl den Lebensraum als auch den Genpool der Arten, verhindert den Genfluss und verändert die funktionellen Eigenschaften. Zudem können gebietsfremde Arten in der veränderten Umwelt schneller Fuß fassen. Auf der anderen Seite machen in verschiedenen zeitlichen und räumlichen Dimensionen vorkommenden Störungen eine Landschaft auch vielfältiger, da sie Nischen kreieren, in denen verschiedene Arten koexistieren können.
Diese Studie befasst sich mit der Komplexität von Störungsregimes und dessen Auswirkungen auf die Phytodiversität. Durch die Aufnahme aller erkennbaren Störungstypen unterscheidet sie sich deutlich von anderen Studien, die sich meist nur auf einzelne Störungen konzentrieren. Die Daten stammen von drei Untersuchungsgebieten im Norden Bayerns, die unterschiedlichen Landnutzungsintensitäten unterliegen: Einer intensiven Land- und Forstwirtschaft, einer kleinräumigen und weniger intensiven Land- und Forstwirtschaft und einem aktiven Truppenübungsplatzes. Der erste Teil der Arbeit befasst sich mit der Auswirkung von Störungsregimen auf die Phytodiversität, zuerst mit Fokus auf militärische Störungen, dann im Vergleich mit den Agrarlandschaften. Der zweite Teil beleuchtet den Einfluss auf Rote-Liste Arten, auf die Verbreitung von Neophyten und Generalisten sowie auf die Homogenisierung der Landschaften. Die Analysen berücksichtigen sowohl die Landschafts- als auch die lokale Ebene.
Nicht einzelne Störungstypen spielten eine entscheidende Rolle, sondern deren Vielfalt, sowohl in der Art als auch in der räumlichen und zeitlichen Vielfalt, was sich besonders auf dem Truppenübungs¬platz mit seinem multiplen aber ungerichteten Störungsregime zeigte. Die in landwirtschaftlichen Gebieten typischen homogenen Störungsregimes, wie Pflügen, Einsäen und Düngen, führten zu reduzierten Artenzahlen. Auf lokaler Ebene überlagerte die Heterogenität der abiotischen Faktoren, deren Ursprung in rezenten und historischen Störungen liegt, die positiven Effekte der Störungen, während vor allem trockene und nährstoffarme Standorte negativen Einfluss zeigten. Wälder des Truppenübungsplatzes zeigten sich durch ihre geringere Dichte und moderate Nutzung deutlich artenreicher im Vergleich zu den landwirtschaftlichen Untersuchungsgebieten.
Die Anzahl der Rote-Liste Arten war in allen drei Untersuchungsgebieten positiv mit der Gesamtzahl der Arten korreliert, jedoch zeigte der Truppenübungsplatz eine signifikant höhere Abundanz der Arten innerhalb des gesamten Gebietes im Vergleich zu den landwirtschaftlichen Gebieten, wo seltene Arten überwiegend auf Randstandorten zu finden waren. Ebenso fanden sich dort weniger Neophyten und Generalisten und somit eine geringere Homogenisierung. Somit zeigte sich der Truppenübungsplatz als Idealgebiet aus Naturschutzsicht. Die moderat bewirtschaftete Frankenalb vereint eine hohen Artenzahl und eine Produktivität, trotzdem wird diese Art von Landschaft in der heutigen industrialisierten Zeit nicht von Bestand sein, da der Ertrag zu gering ist.
In Europa ist die moderne Landwirtschaft eine der häufigsten Formen der Landnutzung, allerdings wird sie auch mit negativen Auswirkungen auf die Biodiversität in Agrarlandschaften in Verbindung gebracht. Lepidoptera (Nacht- und Tagfalter) bilden eine artenreiche Gruppe in Agrarsystemen, doch die Populationen vieler Falterarten sind rückläufig. Zu den Zielen der vorliegenden Arbeit gehörte es, Feldsäume in Agrarlandschaften zu erfassen und zu charakterisieren, Effekte realistischer Eintragsraten von Agrarchemikalien (Dünger und Pestizide) in Feldsäumen auf Lepidoptera zu untersuchen und Informationen zu den Bestäubungsleistungen von Nachtfaltern zu sammeln.
Feldsäume sind zwar häufige semi-natürliche Habitatelemente in Agrarökosystemen, aber es gibt nur wenige Informationen über ihre Struktur, Größe und Breite. Daher wurden Feldsäume in zwei deutschen Agrarlandschaften (je 4.000 ha) erfasst und es zeigte sich, dass ein Großteil dieser Säume schmaler als 3 m war (Rheinland-Pfalz: 85% der Feldsaumlänge, Brandenburg: 45% der Feldsaumlänge). In Deutschland müssen Landwirte bei solchen schmalen Feldsäumen keine Maßnahmen zur Verminderung von Pestizideinträgen (z.B. Pufferzonen) umsetzen. Agrarchemikalien werden deshalb insbesondere durch Überspritzung und Abdrift in schmale Feldsäume eingetragen. In solchen schmalen Feldsäumen konnten zwar Raupen nachgewiesen werden, doch ihre mittlere Abundanz war um 35 – 60% niedriger als auf Vergleichsflächen (Wiesen). Im Rahmen eines Feldversuchs sowie in Laborexperimenten zeigte sich, dass Raupen sensitiv auf Insektizideinträge (Pyrethroid, Lambda-Cyhalothrin) regieren. Zudem wurden auf insektizid-behandelten Silene latifolia Pflanzen 40% weniger Eier von Hadena bicruris Faltern gefunden als auf unbehandelten Kontrollpflanzen und die Blüten der behandelten Pflanzen wurden seltener von Nachtfaltern bestäubt. Lepidoptera können neben Insektizid- auch von Herbizideinträgen beeinflussen werden. Ranunculus acris L. Pflanzen wurden mit subletalen Raten eines Sulfonylurea-Herbizids behandelt und dann als Futterpflanzen für Mamestra brassicae L. Raupen genutzt; dies führte zu signifikant geringeren Raupengewichten, einer verlängerten Zeit bis zur Verpuppung und einer verlängerten Gesamtentwicklungsdauer verglichen mit Raupen, die an Kontrollpflanzen fraßen. Ursachen hierfür waren möglicherweise ein geringerer Nährwert oder eine höhere Konzentration von Abwehrstoffen in den herbizid-behandelten Pflanzen. Düngereinträge führten zu einer geringfügigen Erhöhung der Raupenabundanz in dem Feldversuch. Langfristig reduziert Dünger jedoch die Pflanzenvielfalt und dadurch wahrscheinlich auch die Raupendiversität.
Nachtfalter wie Noctuidae und Sphingidae sind Bestäuber für zahlreiche Pflanzenarten, z.B. viele Orchidaceae und Caryophyllaceae. Obwohl sie in den Agrarökosystemen der gemäßigten Breiten wahrscheinlich keine bedeutenden Bestäuber für Kulturpflanzen sind, können Nachtfalter aber für die Bestäubung der Wildpflanzen in semi-natürlichen Habitaten von Relevanz sein. Dabei wird die Rolle der Nachtfalter als Bestäuber zurzeit vermutlich unterschätzt und es werden Langzeitstudien benötigt, um die zeitlichen Schwankungen in ihrer Abundanz und Artenzusammensetzung berücksichtigen zu können.
Lepidopteren bilden eine artenreiche Organismengruppe in Agrarlandschaften, die auch wesentliche Ökosystem-Dienstleistungen erfüllen. Um Nacht- und Tagfalter besser zu schützen, sollten Einträge von Agrarchemikalien in (schmale) Feldsaumhabitate reduziert werden, beispielsweise durch Maßnahmen zur Risikominderung von Pestiziden und Agrarumweltprogramme.
Die Basis für die Untersuchung bilden die theoretischen Erkenntnisse zur Transition und zum Fremdsprachenunterricht. In der Studie wurden saarländische Grundschullehrer und Gymnasiallehrer zu für den Fremdsprachenunterricht relevanten Aspekten befragt. Aus den Ergebnissen wurden Konsequenzen für die Bildungspolitik und die Unterrichtspraxis abgeleitet.
Factors triggering the ecotoxicity of metal-based nanoparticles towards aquatic invertebrates
(2015)
Heutzutage werden Nanopartikel in großem Maßstab produziert, weshalb deren Eintrag in Oberflächengewässer immer wahrscheinlicher wird. Dort angelangt unterliegen sie verschiedenen umweltbedingten (Oberflächen-)Modifikationen, die in letzter Konsequenz eine Vielfalt von Nanopartikel-Agglomeraten unterschiedlicher Größe hervorbringen. Direkt davon betroffen sind aquatische Lebewesen, die einer entsprechenden Nanopartikelexposition in der Wasserphase ausgesetzt sind.
Nach Sedimentation der Agglomerate können aber ebenfalls benthische Organismen betroffen sein. Bisherige ökotoxikologische Untersuchungen haben solche umweltbedingten Einflüsse außer Acht gelassen und viel mehr nanopartikel-spezifische Charakteristika auf deren Wirkweise gegenüber pelagischen Vertretern untersucht. Aus diesem Grund ist eine systematische Untersuchung derer Faktoren von Nöten, die den Verbleib und das Verhalten aber auch die Toxizität von Nanopartikeln in der Umwelt maßgeblich beeinflussen. Die kumulative Arbeit dieser Dissertation macht sich dies zum Ziel und hinterfragt entsprechende Faktoren die einerseits durch Nanopartikel assoziierte Aspekte (definiert als i) inhärente Stoffeigenschaft des untersuchten Materials und ii) Nanopartikel Charakteristika)) und andererseits durch Umweltbedingungen in Oberflächengewässern geprägt sind. In diesem Kontext wurden verschiedene ökotoxikologische Untersuchungen mit inerten Titandioxid Nanopartikeln (nTiO2) und Ionen freisetzenden Silber Nanopartikeln (nAg) unter Berücksichtigung verschiedener Nanopartikel Charakteristika (z.B. initiale Partikelgröße, Oberflächengröße) und Umweltbedingungen (z.B. Ionenstärke, ultraviolettes Licht (UV-Licht)), durchgeführt.
Als Testorganismen dienten dazu die pelagischen bzw. benthischen Vertreter Daphnia magna und Gammarus fossarum. Die Ergebnisse deuten daraufhin, dass die Toxizität von nTiO2 und nAg gegenüber Daphnien maßgeblich durch das Adsorptionspotential (im Bezug auf das Anhaften der Partikel an die Organismenoberfläche) und das Umweltverhalten (Freisetzung von radikalen Sauerstoffspezies oder Metallionen) der Nanopartikel bestimmt wird.
Darüber hinaus wurde die Nanopartikeltoxizität von jenen inhärenten Stoffeigenschaften, Nanopartikelcharakteritika und Umweltbedingungen am meisten beeinflusst, welche die zuvor genannten Aspekte entweder verstärken oder abschwächen. Hierfür beispielhaft ist der toxizitätsverstärkende Effekt von UV-Licht auf nTiO2 in Experimenten mit Gammarus: Während eine Exposition der Organismen in absoluter Dunkelheit selbst bei 5,00 mg nTiO2/L keine Effekt hervorrief, kam es in der Anwesenheit von UV-Licht schon bei 0,20 mg nTiO2/L zu schwerwiegenden Effekten auf sublethaler und lethaler Ebene.
Unter Berücksichtigung der Ergebnisse dieser Dissertation sowie bisherige Erkenntnisse der Wissenschaft im Allgemeinen, ist die derzeitige Risikoeinschätzung von Nanopartikeln möglicherweise unprotektiv, sofern eine Interaktion von Nanopartikeln und Umwelteinflüssen unberücksichtigt bleibt
Placing questions before the material or after the material constitute different reading situations. To adapt to these reading situations, readers may apply appropriate reading strategies. Reading strategy caused by location of question has been intensively explored in the context of text comprehension. (1) However, there is still not enough knowledge about whether text plays the same role as pictures when readers apply different reading strategies. To answer this research question, three reading strategies are experimentally manipulated by displaying question before or after the blended text and picture materials: (a) Unguided processing with text and pictures and without the question. (b) Information gathering to answer the questions after the prior experience with text and pictures. (c) Comprehending text and pictures to solve the questions with the prior information of the questions. (2) Besides, it is arguable whether readers prefer text or pictures when the instructed questions are in different difficulty levels. (3) Furthermore, it is still uncertain whether students from higher school tier (Gymnasium) emphasize more on text or on pictures than students from lower school tier (Realschule). (4) Finally, it is rarely mentioned whether higher graders are more able to apply reading strategies in text processing and picture processing than lower graders.
Two experiments were undertaken to investigate the usage of text and pictures in the perspectives of task orientation, question difficulty, school and grade. For a 2x2(x2x2x2) mixed design adopting eye tracking method, participants were recruited from grade 5 (N = 72) and grade 8 (N = 72). In Experiment 1, thirty-six 5th graders were recruited from higher tier (Gymnasium) and thirty-six 5th graders were from lower tier (Realschule). In Experiment 2, thirty-six 8th graders were recruited from higher tier and thirty-six were from lower tier. They were supposed to comprehend the materials combining text and pictures and to answer the questions. A Tobii XL60 eye tracker recorded their eye movements and their answers to the questions. Eye tracking indicators were analyzed and reported, such as accumulated fixation duration, time to the first fixation and transitions between different Areas of Interest. The results reveal that students process text differently from pictures when they follow different reading strategies. (1) Consistent with Hypothesis 1, students mainly use text to construct their mental model in unguided spontaneous processing of text and pictures. They seem to mainly rely on the pictures as external representations when trying to answer questions after the prior experience with the material. They emphasize on both text and pictures when questions are presented before the material. (2) Inconsistent with Hypothesis 2, students are inclined to emphasize on text and on pictures as question difficulty increases. However, the increase of focus on pictures is more than on text when the presented question is difficult. (3) Different from Hypothesis 3, the current study discovers that higher tier students did not differ from lower tier students in text processing. Conversely, students from higher tier attend more to pictures than students from lower tier. (4) Differed from Hypothesis 4, 8th graders outperform 5th graders mainly in text processing. Only a subtle difference is found between 5th graders and 8th graders in picture processing.
To sum up, text processing differs from picture processing when applying different reading strategies. In line with the Integrative Model of Text and Picture Comprehension by Schnotz (2014), text is likely to play a major part in guiding the processing of meaning or general reading, whereas pictures are applied as external representations for information retrieval or selective reading. When question is difficulty, pictures are emphasized due to their advantages in visualizing the internal structure of information. Compared to lower tier students (poorer problem solvers), higher tier students (good problem solvers) are more capable of comprehending pictures rather than text. Eighth graders are more efficient than 5th graders in text processing rather than picture processing. It also suggests that in designing school curricula, more attention should be paid to students’ competence on picture comprehension or text-picture integration in the future.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Die vorliegende Forschungsarbeit beschäftigt sich mit der Positionierung und anbieterinternen Kommunikation der innovativen IT-Architektur SOA. Die zentralen Ziele der vorliegenden explorativen und empirischen Forschungsarbeit, die im Kontext der Innovations-Erfolgsfaktorenforschung angesiedelt ist, bestehen in der Beantwor-tung der beiden folgenden forschungsleitenden Fragestellungen:
Forschungsfrage 1: Welche Bedingungen tragen zu einer erfolgreichen Positionierung von SOA bei? Forschungsfrage 2: Welche Bedingungen tragen zu einer erfolgreichen anbieterinternen Kommunikation bezüglich SOA bei? Zur Überprüfung dieser beiden Forschungsfragen wurde ein zweistufiges Delphi-Verfahren durchgeführt. Hierbei wurde zunächst eine qualitative Befragungswelle (N=53) zur Identifizierung der SOA-Positionierungsbedingungen und anbieterinternen SOA-Kommunikations-bedingungen durchgeführt. Insgesamt wurden in der ersten Befragungswelle 122 SOA-Positionierungsbedingungen identifiziert, die sich in 65 Bedingungen auf Anbieterseite, 35 Bedingungen auf Kundenseite, 19 Bedingungen auf SOA-Seite und 3 Bedingungen aufseiten des weiteren Umfeldes aufteilen. Im Rahmen der anbieterinternen SOA-Kommunikation konnten 31 Bedingungen identifiziert werden. Die in der ersten Welle identifizierten SOA-Positionie-rungsbedingungen und anbieterinternen SOA-Kommunikationsbedingungen wurden mittels der zweiten Befragungswelle (N=83) einer quantitativen Analyse unterzogen. Somit liefert die vorliegende Studie Bedingungen, die sowohl zu einer erfolgreichen SOA-Positionierung als auch zu einer erfolgreichen anbieterinternen SOA-Kommunikation beitragen.
Die Resultate dieser Arbeit werden zusammengefasst und theoretisch eingeordnet. Ebenfalls wird die methodische Vorgehensweise kritisch diskutiert und die Güte der Daten beurteilt. Schließlich wird ein Ausblick auf zukünftige Forschungsfelder gegeben.
Virtueller Konsum - Warenkörbe, Wägungsschemata und Verbraucherpreisindizes in virtuellen Welten
(2015)
Virtuelle Welten sind seit ungefähr einem Jahrzehnt in den Fokus der wissenschaftlichen Auseinandersetzung gerückt. Zahlreiche Disziplinen, wie die Rechtswissenschaften, die Soziologie, die Psychologie oder die Pädagogik, diskutieren verschiedenste Phänomene, welche die Interaktion der Menschen innerhalb von virtuellen Welten betreffen. Auch die Volkswirtschaftslehre ist auf diese virtuellen Umgebungen aufmerksam geworden.
Die vorliegende Arbeit setzt sich mit den ökonomischen Vorgängen innerhalb virtueller Welten auseinander. Im Fokus stehen dabei die vier Welten World of Warcraft, RuneScape, Entropia Universe und Second Life. Das "Dach" der Untersuchungen in dieser Arbeit bildet dabei der Verbraucherpreisindex, welcher in der realen Welt dazu dient, die Preisentwicklung von Konsumgütern zu berechnen. Zur Berechnung des Verbraucherpreisindexes werden drei Komponenten herangezogen: Warenkorb, Wägungsschema und die jeweiligen Güterpreise. Der Schwerpunkt dieser Arbeit besteht vor allem darin, diese Komponenten für virtuelle Welten zu identifizieren und eine vergleichbare Berechnung für virtuelle Welten exemplarisch zu ermöglichen. Mit der Übertragung der Werkzeuge der Wirtschaftsstatistik auf virtuelle Welten sind neben den inhaltlichen Erkenntnissen insbesondere die methodische Bewertung und Diskussion von Interesse. Schließlich trägt die Arbeit dazu bei, den Konsum in virtuellen Welten in eine Ordnung zu bringen, erste Konsumschwerpunkte aufzuzeigen und die diesbezüglichen Abweichungen zur realen Welt herauszuarbeiten. Dadurch wird die Basis gelegt, um neben den in dieser Arbeit angestoßenen Untersuchungen weitere volkswirtschaftlich, aber auch soziologisch verankerte Fragestellungen zu ermöglichen. Im Vordergrund steht dabei insbesondere die Auseinandersetzung mit und Begründung von Konsummotiven in virtuellen Welten. Gleichzeitig werden die Herausforderungen, welche sich bei der praktischen Umsetzung der erforderlichen Maßnahmen ergeben, aufgezeigt. Die diesbezüglichen Erkenntnisse sind geeignet, um als Grundlage für künftige Analysen zu dienen, um beispielsweise die Erhebung von Konsumausgaben oder die Aufzeichnung von Preisen und deren Entwicklungen für virtuelle Welten noch fundierter und mit noch engerem Bezug zur realen Welt durchführen und bewerten zu können.
Der demografische Wandel zwingt Unternehmen im sozialen Bereich, die noch mehr Schwierigkeiten haben als andere Firmen, qualifizierte Kräfte zu rekrutieren und zu binden, sich mit der Erhöhung der Mitarbeiterzufriedenheit auseinanderzusetzen.
Diese Forschungsarbeit untersucht die Zusammenhänge zwischen dialogischem Management in der Beziehung zwischen der direkten Führungskraft und ihren Mitarbeitern zu der Mitarbeiterzufriedenheit. Dabei wurden die Persönlichkeitspräferenzen der Führungskraft und des Mitarbeiters in der Wahrnehmung des Mitarbeiters gemessen. Als Persönlichkeitspräferenzen wurden unterschieden: harmoniesuchende Beziehungs-Präferenz versus dominanter Autonomie-Präferenz zu erlebnishungrige Stimulanz-Präferenz versus kontrollierender Balance-Präferenz nach Riemann 1999 und Paschen/Dihsmaier 2011.
Für die empirische Forschung wurde bei den Samariteranstalten Fürstenwalde/Spree eine Fragebogenumfrage mit 364 Teilnehmern von 560 Mitarbeitern durchgeführt. In dieser Forschungsarbeit wurden signifikante Zusammenhänge zwischen der Zufriedenheit der Mitarbeiter mit ihrer Führungskraft und deren dialogischen Kompetenzen, sowie der Kompetenz, Vertrauen zu erzeugen und Wertschätzung zu verbreiten, festgestellt. Es wurden außerdem Unterschiede zwischen der Mitarbeiterzufriedenheit und den wahrgenommenen psychologischen Präferenzen der Mitarbeiter und den vom Mitarbeiter wahrgenommenen Präferenzen der Führungskräfte festgestellt. Hierbei konnte festgestellt werden, dass beziehungsorientierte Führungskräfte eine deutlich höhere Dialogbereitschaft mitbringen als autonomieorientierte Führungskräfte. In dieser Konstellation lag die Zufriedenheit der Mitarbeiter bei diesen Führungskräften deutlich höher als bei den autonomieorientiert wahrgenommenen Führungskräften.Ferner wurde bei den stimulanz- und beziehungsorientierten Mitarbeitern ein höherer Zusammenhang zwischen der Zufriedenheit und dem dialogischem Verhalten der Führungskraft festgestellt als bei den Mitarbeitern mit einer Autonomie- oder Balance-Präferenz.
Die höchsten Zufriedenheitswerte konnten bei beziehungsorientierten Mitarbeitern festgestellt werden, die ihre Führungskräfte ebenfalls als beziehungsorientiert einschätzen. Für die Einführung eines dialogischen Managements in Unternehmen bedeutet dies, dass zunächst das Fundament eines dialogischen Denkens und Handelns bei Führungskräften und Mitarbeitern bereitet werden muss, das sich auf Vertrauen und Wertschätzung stützt. In diesem Zusammenhang sollten die beziehungsorientierten Ansätze von Führungskräften bei Einstellungsverfahren beachtet werden und bei der Personalentwicklung einen höheren Stellenwert bekommen.
Die UN-Behindertenrechtskonvention von 2008 formuliert einen Rechtsanspruch auf inklusive Bildung für Menschen mit Beeinträchtigungen. Diesem wird in Deutschland seit 2009 durch Schulgesetzänderungen Rechnung getragen, mit denen inklusive Bildung durch ein Elternwahlrecht implementiert wird. Bislang ist vor dem Hintergrund der neu geschaffenen elterlichen Entscheidungsmöglichkeiten noch nicht untersucht worden, welche Vorstellungen Eltern von Kindern mit komplexen Beeinträchtigungen mit dem inklusiven Bildungsanspruch ihres Kindes verbinden und in welcher Weise sie diesen an der Schulform ihrer Wahl eingelöst sehen. Im Zentrum der vorliegenden Arbeit steht die Rekonstruktion des Bildungsangebots aus der Perspektive der Eltern im Abgleich mit der Sicht der pädagogischen Klassenteams. Den Fragen nach den elterlichen Erwartungen und Erfahrungen wurde aus der systemtheoretischen Perspektive von Luhmann nachgegangen. In der qualitativ angelegten Untersuchung geht es um Schülerinnen und Schüler mit komplexen Beeinträchtigungen, die nach der Schulgesetznovellierung in Hamburg (2009) in den Jahren 2010 und 2011 eingeschult worden sind und aufgrund der Entscheidung ihrer Eltern in unterschiedlichen Settings an Grund- und Sonderschulen lernen. Die Datenerhebung erfolgte durch leitfadengestützte Interviews mit Eltern, Pädagoginnen und Pädagogen sowie Schulleitungen, ergänzt durch Hospitationen im Schuljahr 2011/12 und Dokumente, die von den Schulen zur Verfügung gestellt wurden. Die Datenanalyse erfolgt mithilfe der Grounded Theory nach Strauß/Corbin (1996). Die Ergebnisse der Untersuchung zeigen elterliche Bildungserwartungen im Hinblick auf ein Ermöglichen von Autonomie und Teilhabe ihrer Kinder und eine differenzierte Wahrnehmung der Umsetzung ihrer Erwartungen im Schulalltag. Einen besonderen Stellenwert messen Eltern der Zusammenarbeit zwischen Schule und Familie bei, die für das Entstehen von Vertrauen bzw. Misstrauen bedeutsam ist. Aus den Erkenntnissen und deren Rückbindung an die Systemtheorie wurde ein Modell des Professionsvertrauens/-misstrauens entwickelt.
Die Auswertung ergibt Hinweise zu Qualitätskriterien eines inklusiven Bildungsangebots und zu Entwicklungsanforderungen in der Professionalisierung, die sowohl auf die Ebene der Organisation Schule als auch der Interaktion zwischen schulischen Akteurinnen und Akteuren sowie Eltern abzielen.
The formulation of the decoding problem for linear block codes as an integer program (IP) with a rather tight linear programming (LP) relaxation has made a central part of channel coding accessible for the theory and methods of mathematical optimization, especially integer programming, polyhedral combinatorics and also algorithmic graph theory, since the important class of turbo codes exhibits an inherent graphical structure. We present several novel models, algorithms and theoretical results for error-correction decoding based on mathematical optimization. Our contribution includes a partly combinatorial LP decoder for turbo codes, a fast branch-and-cut algorithm for maximum-likelihood (ML) decoding of arbitrary binary linear codes, a theoretical analysis of the LP decoder's performance for 3-dimensional turbo codes, compact IP models for various heuristic algorithms as well as ML decoding in combination with higher-order modulation, and, finally, first steps towards an implementation of the LP decoder in specialized hardware. The scientific contributions are presented in the form of seven revised reprints of papers that appeared in peer-reviewed international journals or conference proceedings. They are accompanied by an extensive introductory part that reviews the basics of mathematical optimization, coding theory, and the previous results on LP decoding that we rely on afterwards.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
Die pan-amazonische Baumfrosch-Gattung Osteocephalus ist unzureichend bearbeitet sowohl bezüglich ihrer Taxonomie, als auch ihrer Phylogenie. Der Status einer Reihe von Arten, die bereits oder noch nicht zu dieser Gattung gezählt werden, ist unklar und die Verwandtschaftsbeziehungen innerhalb der Gattung und zu verwandten Gattungen nicht geklärt. In dieser Arbeit wird O. cabrerai (Cochran and Goin, 1970) aus Kolumbien und Peru nochmals detailliert beschrieben und O. festae (Peracca, 1904) aus einem Anden-Vorgebirge in Ecuador revalidiert. Hyla inframaculata Boulenger, 1882, vom Unterlauf des Amazonas in Brasilien, wird in die Gattung Osteocephalus gestellt und Osteocephalus elkejungingerae (Henle, 1981) vom östlichen Andenrand in Peru wird mit Hyla mimetica (Melin, 1941) als O. mimeticus synonymisiert. Das Taxon Hyla vilarsi Melin, 1941, bisher als Synonym unterschiedlicher Arten betrachtet, wird als valide angesehen und in die Gattung Osteocephalus gestellt. Drei neue Arten werden beschrieben: Osteocephalus castaneicola aus Nord-Bolivien und Süd-Peru, O. duellmani von einer subandinen Bergkette in Süd-Ecuador und O. camufatus aus dem zentralamazonischen Teil Brasiliens. Eine phylogenetische Analyse auf Basis von bis zu neun mitochondrialen und einem Kern-Gen zeigt, dass Osteocephalus bezüglich der Gattung Tepuihyla paraphyletisch ist. Deshalb wird hier eine neue Taxonomie vorgeschlagen, die die Monophylie von Osteocephalus und Tepuihyla sichert. Eine neue Gattung, Dryaderces, wird für die Schwestergruppe von Osteocephalus aufgestellt. Die Färbung frisch metamorphosierter Jungfrösche wird als morphologische Synapomorphie von Osteocephalus angesehen. Fünf monophyletische Artengruppen werden innerhalb der Gattung aufgestellt, drei Arten der Gattung Osteocephalus (O. germani, O. phasmatus, O. vilmae) und drei der Gattung Tepuihyla (T. celsae, T. galani, T. talbergae) synonymisiert, außerdem drei Arten anderen Gattungen zugerechnet (Hyla helenae zu Osteocephalus, O. exophthalmus zu Tepuihyla und O. pearsoni zu Dryaderces gen. n.). Außerdem werden neun potentiell neue Arten identifiziert, was einer Artenzunahme von 138% im Vergleich zur derzeit bekannten Diversität entspräche. Daraus ist zu schließen, dass die tatsächliche Artenzahl weit unterschätzt wird. Unbeschriebene Arten verbergen sich vor allem unter den weit verbreiteten, polymorphen Nominatarten. Die Evolution der Fortpflanzungsstrategien innerhalb der Gattung wird im Licht der neuen Phylogenie diskutiert und ein neuer Amplexustyp (Kehlamplexus) beschrieben.
Animationen können in instruktionalen Kontexten genutzt werden, um Wissen über Sachverhalte zu vermitteln, die Prozesse oder Abläufe beinhalten. So können dynamische Sachverhalte explizit dargestellt werden und müssen nicht vom Lerner selbst in Gedanken hergestellt, sondern nur anhand der Animation nachvollzogen werden. Dies sollte sich positiv auf den Wissenserwerb auswirken. Dabei stellen Animationen mit ihrer besonderen Eigenschaft der Darstellung zeitlicher Abläufe besondere Herausforderungen an den Lerner. Das menschliche Informationsverarbeitungssystem unterliegt bestimmten Begrenzungen im Hinblick auf die Wahrnehmung von Geschwindigkeiten. Zu schnelle und zu langsame Geschwindigkeiten können beispielsweise nur schwer wahrgenommen und dementsprechend auch nicht kognitiv verarbeitet werden. Die Zielsetzung der Arbeit, die sich daraus ergibt, war eine systematische Untersuchung der Wirkung unterschiedlicher Präsentationsgeschwindigkeiten auf das Wahrnehmen und Verstehen eines dynamischen Sachverhaltes anhand einer Animation.
Um die Fragestellungen der Arbeit beantworten zu können, wurden vier experimentelle Studien durchgeführt. Die Pilotstudie hatte das Ziel, sowohl das Lernmaterial als auch den entwickelten Wissenstest zu evaluieren. In Studie 1 wurde der Frage nach dem Einfluss der Präsentationsgeschwindigkeit auf den Wissenserwerb beim Lernen mit einer interaktiven Animation nachgegangen.
Die Studien 2 und 3 untersuchten den Einfluss verschiedener Reihenfolgen von Geschwindigkeiten auf den Wissenserwerb. Hier ging es um eine systematische Erfassung der perzeptuellen und kognitiven Verarbeitung dynamischer Informationen in zwei verschiedenen Geschwindigkeiten mittels Blickbewegungsmessung (Studie 2) und wiederholten Testungen des Wissenserwerbs zwischen den einzelnen Lernphasen (Studie 3).
Die Ergebnisse der Studien deuten darauf hin, dass bei langsamer Geschwindigkeit Wissen über Ereignisse auf untergeordneter zeitlicher Ebene erworben wurde und dass je schneller eine Animation gesehen wurde, umso mehr anteiliges Wissen auf einer übergeordneten zeitlichen Ebene erworben wurde (Studie 1), aber eindeutige Aussagen über den Einfluss der Geschwindigkeit auf den Wissenserwerb auf verschiedenen zeitlichen Hierarchieebenen lassen sich aufgrund der Ergebnisse der Studien nicht machen. Im Hinblick auf die Lernförderlichkeit verschiedener Arten der Sequenzierung von Geschwindigkeiten zeigten sich auch keine eindeutigen Ergebnisse. Aufgrund der Analyse der Blickbewegungsdaten deutet sich jedoch an, dass die Reihenfolge "langsam - schnell" den Bedingungen auf Seiten der Lerner eher entgegen kommt als die Reihenfolge "schnell - langsam".
Die vorliegende Arbeit betrachtet den Einfluss von Wald- und Wirtschaftswegen auf Abflussentstehung und Bodenerosionsraten innerhalb eines bewaldeten Einzugsgebiets im Naturschutzgebiet Laacher See. Hierfür wurden sowohl bestehende Erosions- und Akkumulationsformen im Gelände kartiert, als auch Erosionssimulationen mittels einer Kleinberegnungsanlage durchgeführt. Zuletzt erfolgte eine Modellierung des Erosionspotentials auf Grundlage der Simulationsergebnisse.
Die Analyse bestehender Erosions- und Akkumulationsformen im Gelände gab einen Hinweis auf Bodenerosionsraten von Wegoberflächen, die zwischen 27,3 und 93,5 t ha-1 a-1 und somit in derselben Größenordnung wie Erosionsraten unter intensiver ackerbaulicher Nutzung lagen.
Die Simulationsläufe zeigten, dass persistente Waldwege ein deutlich verändertes Infiltrationsverhalten aufwiesen. Auf natürlichen Waldböden lag der Anteil des infiltrierten Niederschlags bei durchschnittlich 96%. Im Falle von Waldwegen nahm dieser Anteil im Mittel auf 14% bis 7% ab. Besonders auffällig waren die Ergebnisse auf Rückegassen, auf denen ein erheblicher Einfluss der Bodenverdichtung durch Befahrung nachgewiesen werden konnte. Hier sank der Anteil des infiltrierten Niederschlags auf 31% in den Fahrspuren, zwischen den Spuren wurden noch 76 % infiltriert.
Während der Simulationsläufe konnten maximale Sedimentmengen von 446 g m-2 erodiert werden, was einer mittleren Bodenerosionsrate von 4,96 g m-2 min-1 entspricht. Diese hohen Abtragsraten wurden auf persistenten Wegen mit geringer Befestigung gemessen. Rückegassen wiesen die geringsten Abtragswerte auf, maximal konnten 37 g m-2 erodiert werden, gleichbedeutend mit einer Abtragsrate von 0,41 g m-2 min-1. Die erodierten Sedimentmengen betrugen im Mittel bei Wegen 167 bis 319 g m-2 und im Falle von Rückegassen 17 g m-2. Anhand von Vergleichsmessungen auf Waldstandorten, bei denen ein mittlerer Bodenabtrag von ca. 5 g m-2 festgestellt wurde, konnte eine erhöhte Erodierbarkeit für jedwede Form der Weganlage bestätigt werden.
Auf Basis der im Gelände gemessenen Abtragsraten wurden die Modellierungen kalibriert. Die Ergebnisse der ABAG / DIN 19708 zeigten für das betrachtete Untersuchungsgebiet eine mittlere jährliche Bodenerosionsgefährdung von 2,4 - 5,8 t ha-1 a-1 für persistente Wege und von 0,5 t ha-1 a-1 für Rückegassen. Im Vergleich zum Mittelwert weitgehend unbeeinflusster Waldflächen im Untersuchungsgebiet von 0,1 t ha-1 a-1 zeigte sich abermals ein erhöhtes Abtragspotential. Die physikalisch basierte Modellierung der Beregnungsversuche mittels WEPP zeigte ein zufriedenstellendes Ergebnis bei der Einschätzung des Abflussverhaltens, so wurden für persistente Wege nur Abweichungen von maximal -5% festgestellt. Die Abflussmodellierung auf Rückegassen sowie die generelle Modellierung der Bodenerosion während der Beregnungsversuche zeigte sich im Kontrast hierzu noch fehlerbehaftet, was ursächlich mit der für ein physikalisches Modell relativ geringen Eingangsdatentiefe zu begründen ist.
Es wurde nachgewiesen, dass Waldwege einen bedeutenden Einfluss auf den Wasserhaushalt und das Bodenerosionsgeschehen haben. Der Rückhalt von Niederschlägen wird gemindert und es kommt zu intensivierten Bodenerosionsprozessen. Schlecht befestigte Wege zeigten einen stark erhöhten Bodenabtrag, der zu ökologischen Folgeschäden führen kann. Der Abtrag kann ebenso zu einer Beeinträchtigung der Befahrbarkeit führen. Anhand der Folgen lässt sich die Relevanz der Betrachtung von Abfluss- und Bodenerosionsprozessen auf Wald- und Wirtschaftswegen deutlich machen. Die vorliegende Arbeit stellt die erste Studie dar, innerhalb derer Abfluss- und Bodenerosionspozesse für Walderschließungsnetzwerke in Mitteleuropa untersucht wurden.
Die vorliegende Dissertation widmet sich dem Phänomen des Erlebens der Rezeption von audiovisuellen narrativen unterhaltenden Medieninhalten. Dieses wird zunächst in die Rezeptions- und Wirkungsforschung eingeordnet und für das weitere Vorgehen konkretisiert: Transportation und Narrative Engagement stellen aktuell die beiden wichtigsten Konzepte der Medienpsychologie bezüglich der Nutzung und Wirkung von Geschichten dar.
Anschließend werden drei Fragestellungen bearbeitet. Bisher standen Forscher und Forscherinnen vor dem Problem der Manipulation des Rezeptionserlebens. Daher wurden in der vorliegenden Arbeit zwei Verfahren vorgeschlagen und in vier experimentellen Studien geprüft. Der Einsatz von Rezensionen erwies sich als geeignet, um bei allen narrativen unterhaltenden Texten das Rezeptionserleben ökonomisch zu manipulieren. Weiterhin gibt es bislang kein etabliertes Verfahren zur rezeptionsbegleitenden Messung des Rezeptionserlebens.
In dieser Arbeit wurde ein Verfahren aus einer Kombination von Real Time Response Measurement (RTR), Secondary Task Reaction Times (STRT) und der Erhebung der Lidschlagfrequenz entwickelt. Vor allem RTR war in der Lage, die im Zusammenhang mit dem Rezeptionserleben auftretenden emotionalen Prozesse zu erfassen. Die Befürchtung, die rezeptionsbegleitenden Messmethoden könnten das Rezeptionserleben verhindern, wurde in einer weiteren experimentellen Studie größtenteils entkräftet. Zuletzt wurde der Prozess des Zusammenfassens des Rezeptionserlebens in ein postrezeptives Urteil thematisiert. Nach der Entwicklung eines Rahmenmodells der Beantwortung postrezeptiver Skalen wurde in einer weiteren Studie die Bedeutung verschiedener Verlaufsparameter für das postrezeptive Urteil untersucht. Vier ausgesuchte Parameter zusammen können das postrezeptive Urteil besser erklären als der Verlaufs-Mittelwert. Die Arbeit schließt mit einer Diskussion, in der unter anderem die dynamische und die postrezeptive Messung des Rezeptionserlebens aufeinanderrnbezogen werden und hinsichtlich ihrer Bedeutung kritische Würdigung erfahren.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
The intention of this thesis was to characterise the effect of naturally occurring multivalent cations like Calcium and Aluminium on the structure of Soil Organic Matter (SOM) as well as on the sorption behaviour of SOM for heavy metals such as lead.
The first part of this thesis describes the results of experiments in which the Al and Ca cation content was changed for various samples originated from soils and peats of different regions in Germany. The second part focusses on SOM-metal cation precipitates to study rigidity in dependence of the cation content. In the third part the effects of various cation contents in SOM on the binding strength of Pb cations were characterised by using a cation exchange resin as desorption method.
It was found for soil and peat samples as well as precipitates that matrix rigidity was affected by both type and content of cation. The influence of Ca on rigidity was less pronounced than the influence of Al and of Pb used in the precipitation experiments. For each sample one cation content was identified where matrix rigidity was most pronounced. This specific cation content is below the cation saturation as expected by cation exchange capacity. These findings resulted in a model describing the relation between cation type, content and the degree of networking in SOM. For all treated soil and precipitate samples a step transition like glass transition was observed, determined by the step transition temperature T*. It is known from literature that this type of step transition is due to bridges between water molecules and organic functional groups in SOM. In contrast to the glass transition temperature this thermal event is slowly reversing after days or weeks depending on the re-conformation of the water molecules. Therefore, changes of T* with different cation compositions in the samples are explained by the formation of water-molecule-cation bridges between SOM-functional groups. No influence on desorption kinetics of lead for different cation compositions in soil samples was observed. Therefore it can be assumed that the observed changes of matrix rigidity are highly reversible by changing the water status, pH or putting agitation energy by shaking in there.
The increasing, anthropogenic demand for chemicals has created large environmental problems with repercussions for the health of the environment, especially aquatic ecosystems. As a result, the awareness of the public and decision makers on the risks from chemical pollution has increased over the past half-century, prompting a large number of studies in the field of ecological toxicology (ecotoxicology). However, the majority of ecotoxicological studies are laboratory based, and the few studies extrapolating toxicological effects in the field are limited to local and regional levels. Chemical risk assessment on large spatial scales remains largely unexplored, and therefore, the potential large-scale effects of chemicals may be overlooked.
To answer ecotoxicological questions, multidisciplinary approaches that transcend classical chemical and toxicological concepts are required. For instance, the current models for toxicity predictions - which are mainly based on the prediction of toxicity for a single compound and species - can be expanded to simultaneously predict the toxicity for different species and compounds. This can be done by integrating chemical concepts such as the physicochemical properties of the compounds with evolutionary concepts such as the similarity of species. This thesis introduces new, multidisciplinary tools for chemical risk assessments, and presents for the first time a chemical risk assessment on the continental scale.
After a brief introduction of the main concepts and objectives of the studies, this thesis starts by presenting a new method for assessing the physiological sensitivity of macroinvertebrate species to heavy metals (Chapter 2). To compare the sensitivity of species to different heavy metals, toxicity data were standardized to account for the different laboratory conditions. These rankings were not significantly different for different heavy metals, allowing the aggregation of physiological sensitivity into a single ranking.
Furthermore, the toxicological data for macroinvertebrates were used as input data to develop and validate prediction models for heavy metal toxicity, which are currently lacking for a wide array of species (Chapter 3). Apart from the toxicity data, the phylogenetic information of species (evolutionary relationships among species) and the physicochemical parameters for heavy metals were used. The constructed models had a good explanatory power for the acute sensitivity of species to heavy metals with the majority of the explained variance attributed to phylogeny. Therefore, the integration of evolutionary concepts (relatedness and similarity of species) with the chemical parameters used in ecotoxicology improved prediction models for species lacking experimental toxicity data. The ultimate goal of the prediction models developed in this thesis is to provide accurate predictions of toxicity for a wide range of species and chemicals, which is a crucial prerequisite for conducting chemical risk assessment.
The latter was conducted for the first time on the continental scale (Chapter 4), by making use of a dataset of 4,000 sites distributed throughout 27 European countries and 91 respective river basins. Organic chemicals were likely to exert acute risks for one in seven sites analyzed, while chronic risk was prominent for almost half of the sites. The calculated risks are potentially underestimated by the limited number of chemicals that are routinely analyzed in monitoring programmes, and a series of other uncertainties related with the limit of quantification, the presence of mixtures, or the potential for sublethal effects not covered by direct toxicity.
Furthermore, chemical risk was related to agricultural and urban areas in the upstream catchments. The analysis of ecological data indicated chemical impacts on the ecological status of the river systems; however, it is difficult to discriminate the effects of chemical pollution from other stressors that river systems are exposed to. To test the hypothesis of multiple stressors, and investigate the relative importance of organic toxicants, a dataset for German streams is used in chapter 5. In that study, the risk from abiotic (habitat degradation, organic chemicals, and nutrients enrichment) and biotic stressors (invasive species) was investigated. The results indicated that more than one stressor influenced almost all sites. Stream size and ecoregions influenced the distribution of risks, e.g., the risks for habitat degradation, organic chemicals and invasive species increased with the stream size; whereas organic chemicals and nutrients were more likely to influence lowland streams. In order to successfully mitigate the effects of pollutants in river systems, co-occurrence of stressors has to be considered. Overall, to successfully apply integrated water management strategies, a framework involving multiple environmental stressors on large spatial scales is necessary. Furthermore, to properly address the current research needs in ecotoxicology, a multidisciplinary approach is necessary which integrates fields such as, toxicology, ecology, chemistry and evolutionary biology.
Ein grundlegendes Verständnis der Anlagerung von künstlich hergestellten Nanopartikeln ist für die Prognose des Schicksals und Transports von Nanopartikeln in der Umwelt unerlässlich.
In dieser Arbeit wurde die Anlagerung von unbedeckten und mit Citrat bedeckten Silbernanopartikeln an unterschiedliche Modell- und Umweltoberflächen in An- und Abwesenheit der Huminsäure untersucht.
Für diese Untersuchungen wurden Sorptionsexperimente durchgeführt. Das Ziel dieser Arbeit ist es zu untersuchen, wie die Silbernanopartikel mit Oberflächen wechselwirken, die verschiedene chemische funktionelle Gruppen besitzen. Dabei wurde ebenfalls der Effekt der Huminsäure auf die Wechselwirkungen zwischen Partikel und Oberfläche untersucht. Die Wechselwirkungen zwischen Nanopartikel und Oberfläche sind in Abwesenheit der Huminsäure wahrscheinlich durch die chemische Natur der wechselwirkenden Oberflächen beeinflusst. In Anwesenheit der Huminsäure wurde diese chemische Sensitivität gegen Anlagerung von Nanopartikeln nicht beobachtet und die Sorption war durch die spezifische Oberfläche von Sorbentien beeinflusst. Die Sorptionsisothermen wurden für die Sorption von Silbernanopartikeln an allen Oberflächen in Abwesenheit der Huminsäure durch Langmuir-Modell beschrieben. Das deutete auf Monoschicht-Sorption der Nanopartikel an Oberflächen hin. Das kann durch den bei der Partikel-Partikel-Abstoßung generierten blockierenden Effekt erklärt werden. In Anwesenheit der Huminsäure zeigten alle Sorptionsisothermen ein lineares Verhalten. Wenn die Huminsäure im Wechselwirkungsmedium vorhanden war, waren die Nanopartikel und Oberflächen mit Huminsäure bedeckt. Dadurch wird die chemische Funktionalität von Oberflächen maskiert. Das führt zu den Unterschieden zwischen Partikel-Oberfläche-Wechselwirkungen in An- und Abwesenheit der Huminsäure. Die mit Citrat und Huminsäure bedeckten Silbernanopartikel zeigten eine Abnahme der Sorption an Oberflächen im Vergleich zu unbedeckten Silbernanopartikeln. Im Falle der mit Citrat bedeckten Silbernanopartikel kann die Abnahme der Sorption durch elektrostatische Kräfte erklärt werden, da diese Partikel ein mehr negatives Zetapotential zeigten. Die Sorptionsabnahme für die mit Huminsäure bedeckten Nanopartikel ist offensichtlich eine Folge der sterischen Behinderung, da es auf Grund der Sorption der Huminsäure an Oberflächen zur Konkurrenz zwischen Nanopartikeln und Huminsäuremolekülen für die Sorptionsplätze kommt. Durch die chemischen Eigenschaften der Nanopartikeloberfläche wird die Effizienz der Anlagerung an Oberflächen beeinflusst. Deswegen ist die Charakterisierung der Nanopartikeloberfläche ein wichtiger Schritt bei der Untersuchung des Schicksals von Nanopartikeln in der Umwelt.
Ein anderes Ziel dieser Arbeit ist es das Potential der chemischen Kraftmikroskopie für die Charakterisierung von Nanopartikeloberflächen mit chemischer Sensitivität zu zeigen. Durch die Anwendung dieser Methode war es möglich zwischen unbedeckten, mit Citrat und Huminsäure bedeckten Silbernanopartikeln zu unterscheiden. Das wurde durch die Messung der Adhäsionskräfte zwischen Nanopartikeln und fünf verschiedenen Atomkraftmikroskope-Spitzen mit unterschiedlichen chemischen Funktionalisierungen ermöglicht.
Zentrale Aufgaben der Hochschule sind die Bewertung, die Ursachenklärung und die Förderung von Studienleistungen (Heublein & Wolter, 2011, S. 215). In diesem Kontext gilt neben intellektuellen Fähigkeiten die Leistungsmotivation als bedeutsamer Prädiktor für den akademischen Erfolg (z. B. Schmidt-Atzert, 2005, S. 132; Steinmayr & Spinath, 2009, S. 80). Im Fokus der vorliegenden Studie stehen deshalb Überlegungen zu Motivationsprozessen von 332 Studienanfängern der Hochschule der Bundesagentur für Arbeit und zu den Faktoren, die sich förderlich auf ihre Lernresultate auswirken. Mit einer Ausschöpfungsquote von 89 % sind die gewonnenen Daten für die Grundgesamtheit repräsentativ. Anhand einer Ex-post-facto-Versuchsanordnung in Form eines quantitativen Prädiktor-Kriteriums-Ansatzes (spezielle Variante eines Längsschnittdesigns) mit unterschiedlichen Erhebungsmethoden, wie standardisiertem Selbstbeurteilungsfragebogen, Leistungstests und offiziellen Dokumenten/Aktenmaterial, wurden folgende Forschungshypothesen zugrunde gelegt: Die Stärke der Leistungsmotivation ist sowohl von Erwartungskomponenten (Fähigkeitsselbstkonzept, Selbstwert, subjektive Notenerwartung, Erfolgszuversicht und Misserfolgsfurcht) als auch von Anreizkomponenten (Gegenstands-, Tätigkeits-, Folgenanreizen) abhängig, welche wiederum vermittelt über das leistungsmotivierte Verhalten einen Einfluss auf die Studienleistung besitzt. Dabei wurde postuliert, dass motivationale Variablen auch dann noch einen bedeutsamen Effekt auf die Studienleistung ausüben, wenn weitere Leistungsprädiktoren, wie die Schulabschlussnote, die Intelligenz, die emotionale Stabilität und die Gewissenhaftigkeit kontrolliert werden.
Die weltweite Vernetzung von semantischen Information schreitet stetig voran und erfährt mit der Linked Data Initiative immer mehr Aufmerksamkeit. Bei Linked Data werden verschiedene Datensätze aus unterschiedlichen Domänen und von diversen Anbietern in einem einheitlichen Format (RDF) zur Verfügung gestellt und miteinander verknüpft. Strukturell ist das schnell wachsende Linked Data Netzwerk sehr ähnlich zum klassischen World Wide Web mit seinen verlinkten HTML Seiten. Bei Linked Data handelt es sich jedoch um URI-referenzierte Entitäten, deren Eigenschaften und Links durch RDF-Triple ausgedrückt werden. Neben dem Dereferenzieren von URIs besteht mit SPARQL auch die Möglichkeit, ähnlich wie bei Datenbanken, komplexe algebraische Anfragen zu formulieren und über sogenannte SPARQL Endpoints auf einer Datenquelle auswerten zu lassen. Eine SPARQL Anfrage über mehrere Linked Data Quellen ist jedoch kompliziert und bedarf einer föderierten Infrastruktur in der mehrere verteilte Datenquellen integriert werden, so dass es nach außen wie eine einzige große Datenquelle erscheint. Die Föderation von Linked Data hat viele Ähnlichkeiten mit verteilten und föderierten Datenbanken. Es gibt aber wichtige Unterschiede, die eine direkte Adpation von bestehenden Datenbanktechnologien schwierig machen. Dazu gehört unter anderem die große Anzahl heterogener Datenquellen in der Linked Data Cloud, Beschränkungen von SPARQL Endpoints, und die teils starke Korrelation in den RDF Daten. Daher befasst sich die vorliegende Arbeit primär mit der Optimierung von verteilten SPARQL Anfragen auf föderierten RDF Datenquellen. Die Grundlage dafür ist SPLENDID, ein effizientes Optimierungverfahren für die Ausführung von verteilten SPARQL Anfragen in einer skalierbaren und flexiblen Linked Data Föderationsinfrastruktur. Zwei Aspekte sind dabei besonders wichtig: die automatische Auswahl von passenden Datenquellen für beliebige SPARQL Anfragen und die Berechnung des optimalen Ausführungsplans (Join Reihenfolge) basierend auf einem Kostenmodell. Die dafür erforderlichen statistischen Information werden mit Hilfe von VOID-basierten Datenquellenbeschreibungen zur Verfügung gestellt. Darüberhinaus wird auch des Management verteilter statistischer Daten untersucht und eine Benchmark-Methodologie
Terrainklassifikation mit Markov Zufallsfeldern für autonome Roboter in unstrukturiertem Terrain
(2015)
Diese Doktorarbeit beschäftigt sich mit dem Problem der Terrainklassifikation im unstrukturierten Außengelände. Die Terrainklassifikation umfasst dabei das Erkennen von Hindernissen und flachen Bereichen mit der einhergehenden Analyse der Bodenoberfläche. Ein 3D Laser-Entfernungsmesser wurde als primärer Sensor verwendet, um das Umfeld des Roboters zu vermessen. Zunächst wird eine Gitterstruktur zur Reduktion der Daten eingeführt. Diese Datenrepräsentation ermöglicht die Integration mehrerer Sensoren, z.B. Kameras für Farb- und Texturinformationen oder weitere Laser-Entfernungsmesser, um die Datendichte zu erhöhen. Anschließend werden für alle Terrainzellen des Gitters Merkmale berechnet. Die Klassifikation erfolgt mithilfe eines Markov Zufallsfeldes für Kontextsensitivität um Sensorrauschen und variierender Datendichte entgegenzuwirken. Ein Gibbs-Sampling Ansatz wird zur Optimierung eingesetzt und auf der CPU sowie der auf GPU parallelisiert um Ergebnisse in Echtzeit zu berechnen. Weiterhin werden dynamische Hindernisse unter Verwendung verschiedener State-of-the-Art Techniken erkannt und über die Zeit verfolgt. Die berechneten Informationen, wohin sich andere Verkehrsteilnehmer bewegen und in Zukunft hinbewegen könnten, werden verwendet, um Rückschlüsse auf Bodenoberflächen zu ziehen die teilweise oder vollständig unsichtbar für die Sensoren sind. Die Algorithmen wurden auf unterschiedlichen autonomen Roboter-Plattformen getestet und eine Evaluation gegen von Menschen annotierte Grundwahrheiten von Karten aus mehreren Millionen Messungen wird präsentiert. Der in dieser Arbeit entwickelte Ansatz zur Terrainklassifikation hat sich in allen Anwendungsbereichen bewährt und neue Erkenntnisse geliefert. Kombiniert mit einem Pfadplanungsalgorithmus ermöglicht die Terrainklassifikation die vollständige Autonomie für radgetriebene Roboter in natürlichem Außengelände.
While the 1960s and 1970s still knew permanent education (Council of Europe), recurrent education (OECD) and lifelong education (UNESCO), over the past 20 years, lifelong learning has become the single emblem for reforms in (pre-) primary, higher and adult education systems and international debates on education. Both highly industrialized and less industrialized countries embrace the concept as a response to the most diverse economic, social and demographic challenges - in many cases motivated by international organizations (IOs).
Yet, literature on the nature of this influence, the diffusion of the concept among IOs and their understanding of it is scant and usually focuses on a small set of actors. Based on longitudinal data and a large set of education documents, the work identifies rapid diffusion of the concept across a heterogeneous, expansive and dynamic international field of 88 IOs in the period 1990-2013, which is difficult to explain with functionalist accounts.
Based on the premises of world polity theory, this paper argues that what diffuses resembles less the bundle of systemic reforms usually associated with the concept in the literature and more a surprisingly detailed model of a new actor " the lifelong learner.
Viele Menschen kommunizieren und interagieren zunehmend über soziale Online-Netzwerke wie Twitter oder Facebook, oder tauschen Meinungen mit Freunden oder auch Fremden aus. Durch die zunehmende Verfügbarkeit des Internets wird auch Wissen für immer mehr Menschen offen verfügbar gemacht. Beispiele hierfür sind die Online-Enzyklopädie Wikipedia oder auch die vielfältigen Informationen in diversen Webforen und Webseiten. Diese zwei Netzwerkkategorien - Soziale Netzwerke und Wissensnetzwerke - verändern sich sehr schnell. Fast sekündlich befreunden sich neue Nutzer in sozialen Netzwerken und Wikipedia-Artikel werden überarbeitet und neu mit anderen Artikeln verlinkt. Diese Änderungen an der Verlinkung von Menschen oder Wissensbausteinen folgen bestimmten strukturellen Regeln und Charakteristiken, die weit weniger zufällig sind als man zunächst annehmen würde.
Das Ziel dieser Doktorarbeit ist es, drei charakteristische Verlinkungsmuster in diesen zwei Netzwerkkategorien vorherzusagen: das Hinzufügen von neuen Verlinkungen, das Entfernen bestehender Verbindungen und das Vorhandensein von latent negativen Verlinkungen. Zunächst widmen wir uns dem relativ neuen Problem der Vorhersage von Entlinkungen in einem Netzwerk. Hierzu gibt es zahlreiche soziologische Vorarbeiten, die nahelegen, dass die Ursachen zur Entstehung von Beziehungsabbrüchen komplementär zu den Gründen für neue Beziehungen sind. Obwohl diese Arbeiten eine strukturelle Ähnlichkeit der Probleme vermuten lassen, zeigen wir, dass beide Probleme nicht komplementär zueinander sind. Insbesondere zeigen wir, dass das dynamische Zusammenspiel von neuen Verlinkungen und Entlinkungen in Netzwerken durch die vier Zustände des Wachstums, des Zerfalls, der Stabilität und der Instabilität charakterisiert ist. Für Wissensnetzwerke zeigen wir, dass die Vorhersagbarkeit von Entlinkungen deutlich verbessert wird, wenn zeitliche Informationen wie der Zeitpunkt von einzelnen Netzwerkergeignissen mit genutzt werden. Wir präsentieren und evaluieren hierfür insgesamt vier verschiedene Strategien, die von zeitlichen Informationen Gebrauch machen. Für soziale Netzwerke analysieren wir, welche strukturellen Einflussfaktoren zur Entstehung und Löschung von Links zwischen Benutzern in Twitter indikativ sind. Auch hier zeigt sich, dass zeitliche Informationen darüber, dass eine Kante schon einmal gelöscht wurde, die Vorhersagbarkeit von Verlinkungen und insbesondere Entlinkungen enorm verbessert. Im letzten Teil der Doktorarbeit zeigen wir, wie negative Beziehungen (beispielsweise Misstrauen oder Feindschaft) aus positiven Beziehungen zwischen Nutzern (etwa Vertrauen und Freundschaft) abgeleitet werden können. Dies ist besonders relevant für Netzwerke, in denen nur positive Beziehungen kenntlich gemacht werden können. Für dieses Szenario zeigen wir, wie latent negative Beziehungen zwischen Nutzern dennoch erkannt werden können.
In den letzten Jahren gibt es im Bereich Software Engineering ein steigendes Interesse an empirischen Studien. Solche Studien stützen sich häufig auf empirische Daten aus Corpora-Sammlungen von Software-Artefakten. Während es etablierte Formen der Durchführung solcher Studien gibt, wie z.B. Experimente, Fallstudien und Umfragen, geschieht die Vorbereitung der zugrunde liegenden Sammlung von Software-Artefakten in der Regel ad hoc.
In der vorliegenden Arbeit wird mittels einer Literaturrecherche gezeigt, wie häufig die Forschung im Bereich Software Engineering Software Corpora benutzt. Es wird ein Klassifikationsschema entwickelt, um Eigenschaften von Corpora zu beschreiben und zu diskutieren. Es wird auch erstmals eine Methode des Corpus (Re-)Engineering entwickelt und auf eine bestehende Sammlung von Java-Projekten angewendet.
Die Arbeit legt zwei umfassende empirische Studien vor, in denen eine umfangreiche und breit angelegte Analysenreihe zu den Sprachen Privacy Preferences (P3P) und objektorientierte Programmierschnittstellen (APIs) durchgeführt wird. Beide Studien stützen sich allein auf die vorliegenden Daten der Corpora und decken dadurch die tatsächliche Nutzung der Sprachen auf.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
Der Begriff Gebrauchsgrafik ist im Wesentlichen ein Sammelbegriff für jene grafischen Arbeiten, die, im Gegensatz zur freien Grafik Anteil haben an der bewussten künstlerischen Durchformung und Gestaltung praktischer Aufgaben. Hauptbetätigungsfeld der Gebrauchsgrafik als zweckgebundene künstlerische Äußerungsform ist um 1900 die Reklame in Form von Plakaten, Anzeigen, Verpackungen, Firmensignets sowie Akzidenzen. Sie alle brachten den vielseitigen Formenschatz des Jugendstils einem breiten Publikum näher. Die Gebrauchsgrafik als neues Medium um 1900 steht im engen Zusammenhang mit dem technischen Fortschritt der industriellen Revolution: Angesichts zunehmender Konkurrenz durch die Massenproduktion von Konsumgütern versprach künstlerisch ansprechende Werbung Wettbewerbsvorteile. Dank der Erfindung der Lithografie um 1799 war die Gebrauchsgrafik allseitig verfügbar und gut finanzierbar. Sie passte in das Konzept des Jugendstils als Medium, das alle Bereiche mitgestaltet. Sie fungierte als Schnittstelle zwischen Wirtschaft, Kunst und Kultur. Exemplarisch werden drei unterschiedliche, für die Region bis heute bedeutende Branchen untersucht: der Tourismus, der Weinbau und die Industrie. Zudem werden Pfälzer Künstler des Jugendstils vorgestellt, die sich auf dem Gebiet der Gebrauchsgrafik betätigten. So lässt sich in der Pfalz eine repräsentative Anzahl gebrauchsgrafischer Arbeiten des Jugendstils in unterschiedlicher Ausprägung nachweisen. Als entlegene bayrische Provinz nahm sie die Strömungen der Zeit wahr und setzte sie auf ihre Weise um. Ein eigenständiger Pfälzer Jugendstil entwickelte sich aber nicht.
Feldsäume gehören zu den letzten verbliebenen Lebensräumen für Wildpflanzenarten in der Agrarlandschaft. Aufgrund ihrer unmittelbaren Nähe zu den bewirtschafteten Flächen kann jedoch ihre Vegetation durch den Eintrag von Agrarchemikalien beeinträchtigt werden. Das Ziel dieser Arbeit war es die Einzel-, und Kombinationseffekte von Herbizid-, Insektizid- und Düngereinträgen auf die Pflanzengemeinschaft eines Feldsaums zu untersuchen. Es wurde ein 3-jähriges Freilandexperiment mit einem randomisierten Blockdesign, bestehend aus 7 Behandlungen (H: Herbizid, I: Insektizid, D: Dünger, H+I, D+I, D+H, D+H+I) und einer Kontrolle mit jeweils 8 Replikaten (= Parzellen), auf einer Wiese durchgeführt. Die Parzellen hatten je eine Größe von 8 m × 8 m und waren durch 2 m breite Wege voneinander getrennt. Die für die Behandlung der Parzellen verwendeten Dünger- (25 % der Feldrate) und Pestizidraten (30 % der Feldrate) entsprachen realistischen Eintragsraten (Überspritzung + Abdrift) in den ersten Meter eines Feldsaums in Nachbarschaft zu einem Getreidefeld.
Die Studie zeigte, dass Dünger- und Herbizideinträge wesentliche Faktoren darstellen, welche die natürliche Pflanzengemeinschaft in Feldsäumen beeinflussen. 20 der 26 häufigsten auf der Wiese vorkommenden Arten zeigten signifikante Effekte durch die Dünger- und Herbizidbehandlung. Die Düngung förderte stickstoffliebende Pflanzenarten und reduzierte das Vorkommen von kleinwüchsigen Arten. Durch das Herbizid wurden drei Pflanzenarten bereits im ersten Jahr fast vollkommen verdrängt, während andere Arten hauptsächlich subletale Effekte (z.B. phytotoxische Effekte, eine bis zu 100 % reduzierte Samenproduktion) vorwiesen. Werden Feldsäume allerdings über mehrere Jahre Agrarchemikalien ausgesetzt, führen auch diese subletalen Effekte (insbesondere Effekte auf die Reproduktion) zu einer Reduzierung der Populationsgröße, wie in dem Feldversuch beobachtet werden konnte. Die Kombinationsbehandlung von Dünger und Herbizid führte zu signifikanten Interaktionseffekten, welche sich nicht von den Effekten der Einzelbehandlungen extrapolieren ließen. Die Dünger- und Herbizideffekte intensivierten sich über den Untersuchungszeitraum, führten nach 3-jähriger Anwendung zu einer Veränderung in der Pflanzengemeinschaft, und reduzierten die Pflanzendiversität um 15 % im Vergleich zur Kontrolle. Das Insektizid wirkte sich signifikant auf das Vorkommen von zwei Pflanzenarten aus (1 positiver, 1 negativer Effekt). Die Ergebnisse des Feldversuchs lassen darauf schließen, dass eine fortführende Behandlung zu weiteren Gemeinschaftsveränderungen und wahrscheinlich auch zum Verschwinden bestimmter Pflanzenarten führen würde. Es war eine Tendenz zur Ausbildung von Gras-Dominanzbeständen zu erkennen, welche einen Verlust von Blütenpflanzen mit sich brachte. Dies konnte auch in eigenen Monitoringstudien in Feldsäumen beobachtet werden.
Zwar zielt die Risikobewertung von Herbiziden darauf ab Nichtziel-Pflanzen in Habitaten außerhalb des bewirtschafteten Feldes vor nachteiligen Auswirkungen zu schützen, Reproduktionseffekte und Kombinationseffekte werden bisher jedoch nicht berücksichtigt. Zudem gibt es keine Regelungen zur Düngeranwendung in Nachbarschaft zu Feldsäumen, weshalb Düngereinträge in Feldsäume und deren Interaktion mit Herbizideffekten sehr wahrscheinlich sind.
Anpassungen der derzeitigen Risikobewertung, eine Entwicklung von Risikominderungsstrategien für die Herbizid- und Düngerapplikation, sowie generelle Managementmaßnahmen für Feldsäume sind daher dringend notwendig, um die Pflanzendiversität in Feldsäumen zu erhöhen und zu schützen.
Studien zeigen einen hohen Anteil an gut ausgebildeten Frauen, auch weisen Untersuchungen über die Führungskompetenz mehr führungsstarke Frauen (jede 12.) als Männer (jeder 17.) auf. Diese Ergebnisse spiegeln sich jedoch nicht in der nur geringen Anzahl von Frauen in höheren Führungspositionen wieder, mit der Folge, dass diese Ressource damit ungenutzt bleibt. Wenn Mitarbeitende aber als bedeutsam für den Unternehmenserfolg angesehen werden, dann sollten ein optimaler Einsatz und eine bestmögliche Entwicklung selbstverständlich sein. Dieser Aspekt findet sich auch in der Politik zur Gleichbehandlung der Geschlechter wieder. Organisationen vernachlässigen Potential, wenn sie Frauen, die gut ausgebildet sind, nicht die Möglichkeiten geben, beruflich aufzusteigen. Gerade in der Sozialen Arbeit ist der Anteil der Frauen sehr hoch, dennoch kehrt sich diese Verhältnismäßigkeit, vor allem bei den höheren Führungspositionen wie Vorstände, Geschäftsführungen, Aufsichtsgremien, um. Im Rahmen der vorliegenden Dissertation werden förderliche und hemmende Faktoren im Erreichen einer Leitungsposition von Frauen analysiert. Der besondere Fokus ist dabei auf die obere Führungsebene in Organisationen der Sozialen Arbeit gerichtet, im Besonderen auf die Freie Wohlfahrtspflege. Ziel ist darüber hinaus die Darstellung von Handlungsimplikationen zur Förderung weiblicher Karrieren in der Sozialen Arbeit, als Beitrag zur besseren Nutzung weiblichen Know-Hows. Die Arbeit berücksichtigt dabei sowohl die Sicht von Frauen in Führungspositionen, als auch die Sicht von Personalentscheiderinnen und -entscheidern und leistet einen Beitrag dazu, wie Frauen in Verbänden und Organisationen der Freien Wohlfahrtspflege der Zugang zu Führungspositionen ermöglicht werden kann. Die hieraus resultierenden Leitfragen sind: Welche biografischen und institutionellen Faktoren fördern und hemmen den Aufstieg weiblicher Führungskräfte in die obere Führungsebene? Welche Faktoren zeigen sich aus Sicht der Frauen, welche aus Sicht der Personalentscheiderinnen und -entscheider? Welche Lösungswege ergeben sich zur Anhebung des Frauenanteils in der oberen Führungsebene? In der theoretischen Ausarbeitung werden zunächst im Rahmen des ersten Themenkomplexes Frauen und Führung bspw. geschlechtsspezifische Aspekte von Führungsverhalten besprochen, Bezug nehmende Ergebnisse der Führungsforschung sowie der Frauen- und Geschlechterforschung aufgezeigt und berufliche Situationen und Karrieren von Frauen dargestellt. Einfluss- und Erfolgsfaktoren weiblicher Karrieren, mögliche Aufstiegsbarrieren (biografisch konstruiert, gesellschaftlich sozialisiert, organisationsstrukturell) und Strategien zur Realisierung von Chancengleichheit im Aufstieg werden beschrieben. Der erste Themenkomplex endet mit der analytischen Betrachtung des Nutzens dieser Chancengleichheit. Der zweite Themenkomplex geht konkret auf den Bereich Soziale Arbeit ein, beleuchtet den Begriff Frauenberuf, die berufliche Situation von Frauen in der Sozialen Arbeit, die Freie Wohlfahrtspflege, das hier vorherrschende Verständnis von Führung und geht im Abschluss auf Frauen in Führungspositionen in der Sozialen Arbeit ein. Neben Faktoren, die Frauen möglicherweise einen Führungsaufstieg erschweren, werden auch Möglichkeiten von Organisationen bei der Unterstützung von Karrieren der Frauen beleuchtet. Die Untersuchung legt ihren Schwerpunkt auf die Organisationen der Sozialen Arbeit und die Führungspositionen des oberen Managements. Im sich anschließenden empirischen Teil erfolgt daher die Darstellung des Forschungsprojekts und des Forschungssettings, der Forschungsergebnisse, als auch der daraus abgeleiteten Schlussfolgerungen.
Die Verabschiedung der Europäischen Wasserrahmenrichtlinie (WRRL) in 2000 markierte den Beginn einer neuen Ära in der europäischen Wasserpolitik. Mehr als ein Jahrzehnt später, verfehlt jedoch weiterhin die Mehrheit der europäischen Flüsse den guten ökologischen Zustand, eines der wichtigsten WRRL-Ziele.
Ein bedeutender Belastungsfaktor für Fließgewässerökosysteme sind Pflanzenschutzmittel (PSM). Die vorliegende Doktorarbeit unterstreicht die Notwendigkeit, alle wichtigen land-wirtschaftlichen PSM-Quellen und beeinflussenden Landschaftsfaktoren bei der Erstellung von WRRL-Bewirtschaftungsplänen und Maßnahmenprogrammen zu berücksichtigen. Die Ergebnisse und Empfehlungen dieser Doktorarbeit verbessern das Verständnis für eine zielgerichtete Bekämpfung von PSM-Belastungen zur Erreichung der WRRL-Ziele. Insgesamt wurden 663 Messstellen in den Bundesländern Sachsen, Sachsen-Anhalt, Thüringen und Hessen untersucht (Kapitel 3 und 4). Neben einer Analyse der Makrozoobenthos-Daten aus dem WRRL-Monitoringnetz, erfolgte eine detaillierte GIS-Analyse der wichtigsten landwirtschaftlichen PSM-Quellen (Ackerland, Kleingärten sowie kommunale Abwasserreinigungsanlagen) sowie Landschaftsfaktoren (Gewässerrandstreifen und bewaldete Abschnitte im Oberlauf). Basierend auf den Ergebnissen wurde eine Screening-Methode zur schnellen und kostengünstigen Identifizierung von potenziell mit PSM belasteten Stellen entwickelt. Mit Hilfe des Bioindikators SPEARpesticides konnten insektizide Langzeitwirkungen der Abwässer von Abwasserreinigungsanlagen auf die Struktur der Makrozoobenthos-Gemeinschaft bis in 1,5 km Entfernung flussabwärts (in einigen Fällen sogar 3 km) aufgezeigt werden. Die Ergebnisse für den Deutschen Saprobienindex zeigen zudem, dass Abwasserreinigungsanlagen weiterhin eine bedeutende Quelle für sauerstoffzehrende Substanzen sind. Als geeignete Maßnahmen zur Verminderung der Belastung und der Auswirkungen von PSM wurden Gewässerrandstreifen (mindestens 5 m breit) und bewaldete Oberläufe identifiziert.
Es wird befürchtet, dass die zukünftige Ausdehnung des Energiepflanzenanbaus zu einem Anstieg der diffusen PSM-Belastung von Ökosystemen in Agrarlandschaften führen könnte. Diese Fragestellung wurde im Rahmen der vorliegenden Doktorarbeit basierend auf einer Analyse der Entwicklung des Energiepflanzenanbaus in Deutschland und anhand einer Literaturrecherche zu mehrjährigen Energiepflanzen untersucht (Kapitel 5). Die Ergebnisse zeigen, dass eine großflächige Ausdehnung des Energiepflanzenanbaus nicht unbedingt zu einer Erhöhung oder Verringerung der Menge an PSM, die in die Umwelt gelangen, führen muss. Die potenziellen Auswirkungen hängen vielmehr von der zukünftigen Ausgestaltung der Agrarsysteme ab. Anstelle des Anbaus von einjährigen Energiepflanzen in Monokulturen, sollten diese in die bereits vorhandenen Nahrungsmittelanbausysteme integriert werden. Zudem könnten finanzielle Anreize sowie eine verstärkte Aus- und Fortbildung der Bauern dazu beitragen, die Nutzung von nachhaltigen Fruchtfolgen, innovativen Anbausystemen und mehrjährigen Energiepflanzen zu erhöhen. Dies würde die Vielfalt der Feldfrüchte erhöhen und könnte helfen, den PSM-Bedarf der bisherigen intensiven Nahrungsmittelanbausysteme zu verringern.
In der vorliegenden Arbeit wurde untersucht, inwieweit durch lokale Wirtschaftsförderungsinitiativen in Namibia Projekte zur Minderung von Treibhausgasen angestoßen werden können. Dabei wurde insbesondere geprüft, ob der Clean Development Mechanism (CDM) des Kyotoprotokolls sinnvoll genutzt werden kann.
Dazu wurden zuerst die Faktoren (Potential für Minderungsprojekte, Geschäfts- und Investitionsklima, institutionelle Rahmenbedingungen, etc.), die die Initiierung von Projekten fördern oder behindern können, diskutiert. In einem weiteren Schritt wurde analysiert, welche Einstellung Klima- und Energieexperten und Personen, die im Bereich lokaler und regionaler Wirtschaftsförderung tätig sind, zur Forschungsfrage haben. Dazu wurden 229 Fragebögen, 28 individuelle Interviews und eine Fokusgruppendiskussion mit 20 Teilnehmern ausgewertet. Des Weiteren wurde die praktische Umsetzbarkeit entsprechender Maßnahmen mit Hilfe einer vom Autor initiierten "real life"-Fallstudie untersucht. Während der Entwicklung einer lokalen Wirtschaftsförderungsstrategie in der namibischen Region Otjozondjupa wurde auch das dortige Potential für Treibhausgasminderungsprojekte eingeschätzt, darauf basierend wurden Projektideen entwickelt und deren nachhaltige soziale und wirtschaftliche Auswirkungen beurteilt. Erfolg versprechende Projekte wurden anschließend in die Strategie zur Implementierung integriert.
Aufgrund verschiedener Faktoren wie beispielsweise der Komplexität von CDM, dem geringen Ausstoß von Treibhausgasen in Namibia, der schlechten Marktsituation für Emissionsrechte und unzureichender finanzieller Mittel hat die Initiierung von CDM-Projekten durch lokale Wirtschaftsförderung in Namibia den im Rahmen der vorliegenden durchgeführten Untersuchungen zufolge wenig Aussicht auf Erfolg. Jedoch besteht seitens der Akteure die grundsätzliche Bereitschaft, Minderungsprojekte in lokale Wirtschaftsförderung zu integrieren, wenn damit vorrangig die Ziele der Wirtschaftsförderung erreicht werden. Die Untersuchung zeigte, dass lokal initiierte Minderungsprojekte kaum zur Schaffung von Einkommensquellen oder Arbeitsplätzen beitragen. Stattdessen sollten eher nationale strategische Ziele verfolgt werden, wie z. B. eine flächendeckende Elektrizitätsversorgung oder die Verminderung der Abhängigkeit von Stromimporten. Dazu müsste bei lokaler Wirtschaftsförderung zukünftig auch der Energiesektor eine größere Rolle spielen, lokale Verwaltungen müssten die Verantwortung für die Initiierung von Energieprojekten übernehmen, nationale und lokale Behörden müssten effizienter zusammenarbeiten und die lokalen Rahmenbedingungen müssten so verbessert werden, dass der Privatsektor bereit ist, seine Rolle in der Wirtschaftsförderung zu übernehmen. Darüber hinaus sollten die Interessen der Bevölkerung berücksichtigt und alle Akteure frühzeitig in Entscheidungsprozesse eingebunden werden.
Non-Consumptive Effects of Spiders and Ants: Does Fear Matter in Terrestrial Interaction Webs?
(2014)
Die meisten Tiere haben natürliche Feinde. Neben dem Töten von Beute (Prädation), können Räuber auch die Physiologie, Morphologie und das Verhalten von Beutetieren beeinflussen. Spinnen sind eine ausgesprochen diverse und häufige Räubergruppe in terrestrischen Ökosystemen. Unsere Verhaltensexperimente haben gezeigt, dass nur wenige Insekten- und Spinnenarten das Verhalten in der Anwesenheit von Spinnengeruchstoffen ändern. Besonders Waldgrillen (Nemobius sylvestris) änderten ihr Verhalten aufgrund von Geruchsstoffen mehreren Spinnenarten. Dabei bewirkten Geruchstoffe von relativ größeren und häufigeren Spinnenarten stärkere Verhaltensänderungen.
Verhaltensänderungen unter Prädationsrisiko erhöhen die Überlebensrate von Beutetieren, sind aber oft mit Kosten verbunden. Grillen, die vorher schon mit Geruchstoffen der Listspinne (Pisaura mirabilis) konfrontiert wurden, konnten den Spinnen tatsächlich erfolgreicher entkommen. Während des Experiments haben Grillen unter Prädationsrisiko geringfügig mehr gefressen und weniger Gewicht verloren als Kontrollgrillen. Dies deutet darauf hin, dass Grillen durch das Prädationsrisiko verursachte Kosten kurzzeitig kompensieren können. In einem Wahlexperiment bevorzugten Grillen Pflanzen ohne Spinnengeruchsstoffe. Infolgedessen wurde an Pflanzen mit Spinnengeruchsstoffen weniger gefressen.
Auch Ameisen sind allgegenwärtige Räuber und können einen starken Einfluss auf Pflanzenfresser (Herbivore) aber auch auf andere Räuber haben. Wenn junge Spinnen mit Ameisengeruchstoffen konfrontiert wurden, stieg ihre Bereitschaft sich über größere Entfernungen auszubreiten. Junge Spinnen nutzen diese passive Ausbreitung über die Luft ("ballooning") um Ameisen zu entkommen und neue Lebensräume zu besiedeln.
In einem Freilandexperiment haben wir die Besiedlung von Pflanzen durch Arthropoden in Abhängigkeit von Spinnengeruchsstoffen untersucht. Dabei haben wir den Fraß an den Blättern und die Tiergemeinschaften erfasst. Vergleichbar zum Pflanzenwahlversuch im Labor wurde an Pflanzen mit Spinnengeruchstoffen weniger gefressen. Zusätzlich konnten wir Veränderungen in den Tiergemeinschaften feststellen: Kleine Spinnen und die Schwarze Gartenameise (Lasius niger) haben Pflanzen mit Spinnengeruchstoffen gemieden. Im Gegensatz dazu stieg die Anzahl der Arbeiterinnen der Roten Gartenameise (Myrmica rubra), möglicherweise um ihre Blattläuse gegen die drohende Gefahr zu verteidigen.
Obwohl Verhaltensänderungen auf Filterpapieren mit Spinnengeruchstoffen selten waren, haben unsere Experimente unter natürlicheren Bedingungen deutliche und weitreichende Reaktionen auf die mögliche Anwesenheit von Spinnen (Risikoeffekte) gezeigt. Unsere Resultate legen nahe, dass Risikoeffekte von Räuber die räumliche Verteilung von Pflanzenfraß verändern. Die Gesamtherbivorie wurde allerdings nicht reduziert, was erwartet wird wenn Räuber Pflanzenfresser töten. Wie stark sich Prädation und Risikoeffekte relativ auf die Beute auswirken ist entscheidend für den Einfluss von Räuber auf niedrigere Nahrungsebenen.
Ziel dieser Arbeit ist die Entwicklung von Verfahren zur realistischen augmentierten Bildsynthese auf Basis von 3D-Photo-Collections. 3D-Photo-Collections sind aus Einzelfotos automatisch erzeugte Repräsentationen einer realen Szene und geben diese als Menge von Bildern mit bekannten Kameraposen sowie einer groben punktbasierten Modellierung der Szenengeometrie wieder. Es wird eine fotorealistische augmentierte Bildsynthese von realen und virtuellen Anteilen in Echtzeit angestrebt, wobei die reale Szene durch 3DPhoto-Collections beschrieben wird. Um dieses Ziel zu erreichen, werden drei Problemfelder bearbeitet.
Da die Fotos unter Umständen in verschiedenen geräteabhängigen RGB Farbräumen liegen, ist eine Farbcharakterisierung der 3D-Photo-Collections notwendig, um korrekte, der menschlichen Wahrnehmung entsprechende Farbinformationen zu erhalten. Das hierzu entwickelte Verfahren transformiert alle Bilder automatisch in einen gemeinsamen Farbraum und vereinfacht so die Farbcharakterisierung von 3D-Photo-Collections.
Als Hauptproblem der augmentierten Bildsynthese muss die Umgebungsbeleuchtung der realen Szene bekannt sein, um eingefügte virtuelle Anteile konsistent zu den realen Anteilen zu beleuchten. Hierfür wurden zwei neue Verfahren zur Rekonstruktion der Umgebungsbeleuchtung aus den Bildern der 3D-Photo-Collection entwickelt.
Um eine Bildsynthese für beliebige Ansichten auf die Szene durchzuführen, wurde ein neues Verfahren zur bildbasierten Darstellung entwickelt, welches neue Ansichten auf die 3D-Photo-Collection unter direkter Verwendung der Punktwolke erzeugt. Dieser Ansatz erzeugt neue Ansichten in Echtzeit und erlaubt somit eine freie Navigation.
Insgesamt konnte mit den entwickelten Methoden gezeigt werden, dass 3D-Photo-Collections für Augmented-Reality eine geeignete Repräsentation von realen Anteilen sind und eine realistische Synthese mit virtuellen Anteilen durchgeführt werden kann.
Mit der zunehmenden Verbreitung digitaler Kameras nimmt die Anzahl der aufgenommen Fotos drastisch zu. Fotos werden sowohl für den privaten Gebrauch aufgenommen und auf eigenen Festplatten gespeichert, als auch im Internet verbreitet. Die Verwaltung dieser großen Datenmengen stellt eine Herausforderung dar, bei der Benutzer zunehmend unterstützt werden müssen. Die automatische Analyse von Bildinhalten anhand von Algorithmen ist ein ungelöstes Problem und kann kaum die Bedürfnisse menschlicher Nutzer erfüllen. Daher werden häufig Metainformationen genutzt, um z.B. abgebildete Szenen textuell zu beschreiben oder Bewertungen zu Fotos zu speichern. Im Rahmen dieser Arbeit wird untersucht, wie diese Metainformationen ohne zusätzlichen Aufwand für Benutzer generiert werden können. Dazu werden Augenbewegungen von Benutzern mit einem Eyetrackinggerät erfasst und die daraus abgeleitete visuelle Aufmerksamkeit als Informationsquelle genutzt.
Aufgrund von fallenden Hardwarepreisen bei gleichzeitig zunehmender Konkurrenz sind die Preise für Eyetracker in den letzten Jahren stark gefallen und ihre Bedienbarkeit wurde vereinfacht. Es wird angenommen, dass die Erfassung von Blickdaten bald mit alltäglichen Geräten wie Laptops möglich sein wird, während Benutzer z.B. verschiedenen Beschäftigungen mit digitalen Bildern nachgehen. Die Auswertung dieser Blickinformationen erlaubt es, Informationen ohne zusätzlichen Aufwand für den Menschen bereitzustellen.
Im ersten Teil dieser Arbeit wird untersucht, ob durch die Auswertung von Blickinformationen, Schlagworte Bildregionen zugewiesen werden können, mit dem Ziel abgebildete Szenen zu beschreiben. Insgesamt wurden drei Experimente durchgeführt um die Qualität der Beschreibungen zu untersuchen. Im ersten Experiment entschieden Teilnehmer durch das Drücken bestimmter Tasten, ob ein gegebenes Objekt auf einem Foto zu sehen war. In der zweiten Studie suchten Benutzer mit einer simulierten Bildersuche nach Fotos von bestimmten Objekten. Im dritten Experiment klassifizierten Benutzer Fotos bezüglich gegebener Objektnamen in einem eyetracking-gesteuerten Spiel. In jedem Experiment wurden die Augenbewegungen aufgezeichnet und die Objektnamen bzw. Suchbegriffe entsprechenden Bildregionen zugeordnet. Die Ergebnisse zeigen, dass in den verschiedenen Anwendungen Bildinhalte durch Blickpfadanalysen sinnvoll beschrieben werden können. Im zweiten Teil wird die Identifizierung von interessanten Fotos in einer Sammlung von Fotos anhand von Blickbewegungen erforscht, mit dem Ziel, Benutzern individuelle Fotoauswahlen anzubieten, nachdem sie Fotos in einer Sammlung betrachtet haben. Durch den Vergleich der unter Einbeziehung der visuellen Aufmerksamkeit automatisch erstellten Auswahlen mit manuell von den Benutzer erstellten Auswahlen, wird das Potential von Blickinformation in der Erkennung wichtiger Fotos deutlich.
Die Ergebnisse dieser Arbeit zeigen das große und bisher ungenutzte Potential der impliziten Nutzung von Blickdaten. Es kann von menschlichen Fähigkeiten profitiert werden, besonders dort, wo Algorithmen die menschliche Wahrnehmung noch lange nicht simulieren können.
Biodiversity is not only threatened by habitat loss, climate change and pollution, but also by invasive species. The impact of introduced species is immense and causes substantial ecological and economical costs worldwide. With the start of domestications of the African wildcat (Felis lybica) in the Near East, the transport of house cats (Felis catus) around the world as a commensal and domesticate began. The general aim of my thesis was to investigate the impact of invasive feral cats on native species as well as underlying population genetic structures, diversity and phylogeography. This was studied in the context of the demographic history in Australia and Hawai'i. My studies confirmed that the main introductions of cats to Australia began in the 19th century via ships of European settlers, traders and workers. Similarly, I was able to confirm cat introductions to Hawai'i by European traders and explorers; which has to the present a devastating effect on Hawaiian endemic species. Likewise, cats are widespread across Australia, can be found on most islands and are recognized as one of the major threats to Australian native species. A selective feeding behaviour by invasive predators was found in one of my studies. This study additionally gives an indication for possible population recovery of small Western Australianrnvertebrate species after predator removal. Advancement and the combination of various management techniques allow, if adequately funded, a more efficient planning and implementation of eradication campaigns. Population genetic approaches are able to give insights into population genetic structure, diversity and kinship, thereby enabling management campaigns to be more cost effective and successful. No pattern of isolation by distance between populations of Hawai"i and Australia indicated that trade routes, such as the "Golden Round" of the maritime fur trade, facilitated a link between far off global cat populations. Multiple introductions to Australia and intermixing with domestic breed cats resulted in feral cat populations which showrnno signs of reduced genetic variability. My studies also revealed the advantages of bioproxies in combination with phylogeography, which enable the inference and reconstruction of introduction routes, history and origin of invasive species. Genetic signals of historically introduced genotypesrnare still discernible on islands with low number of introductions over time and thereby low intermixing with domestic fancy breeds. Feral cats' adaptability as an invader was reconfirmed and possible underlying genetic mechanisms enabling their success as a global invader ("global supercat") are discussed. Research into the feralisation process of cats will provide new information regarding the domestication of cats, the genetic basis of feralisation and allow additional insights into cats" adaptive potential.
Die vorliegende Dissertation leistet einen Beitrag zur historischen Frauenbildung in Deutschland. Gegenstand der Studie ist die Mädchenbildung im Zeitalter der Aufklärung. Da diese von der Pädagogik der Jungen stets getrennt betrachtet wurde und Bildung sich nach dem allgemeinen Verständnis bürgerlichen theoretischen Verstandes nur auf die Erziehung des jungen männlichen Geschlechts bezog, blieb die Frau von öffentlicher Bildung im 18. Jahrhundert weitgehend ausgeschlossen. An den Bildungsformen der Lesegesellschaften, der Salonkultur und der "Moralischen Wochenschriften" wird zunächst aufgezeigt, in welcher Weise es Frauen möglich war, sich dennoch Zugang zur Bildung zu verschaffen. Die beiden folgenden Kapitel behandeln La Roches und Campes Biografie. Im Fokus steht dabei ihrer beider Handeln im Feld der Mädchenerziehung und des Reisejournalismus. Vergleichend werden bildende Elemente hinsichtlich ihrer Hinwendung zur Französischen Revolution und des Reisejournalismus dargelegt. Die Betrachtung der Reiseberichte beider Autoren klärt, in welcher Form La Roche und Campe den politischen Reformbestrebungen des späten 18. Jahrhunderts folgen bzw. in welchem Maß sie den Idealen der voraufklärerischen Zeit unterliegen. Im Mittelpunkt der Arbeit stehen La Roches Briefe an Lina (1783/84) und Campes Väterlicher Rath für meine Tochter (1789). Die Mädchenratgeber spiegeln das pädagogische Konzept der Mädchenbildung beider Autoren wider. Eine Gegenüberstellung der Mädchenratgeber wird zeigen, inwieweit La Roche und Campe konservativen bzw. progressiven Leitbildern der Mädchenbildung folgen. Die Studie geht von der Ambivalenzthese aus, nach der La Roche und Campe innerhalb ihrer Denkweisen als Pädagogen und Reiseschriftsteller Gegensätze und Widersprüche aufweisen. Es soll geklärt werden, inwiefern La Roches Mädchenbildungskonzept von emanzipativen Vorstellungen geprägt ist, ihr politisches Denken hingegen konservativ erscheint, während Campes Mädchenbildungstheorie eher traditionell angelegt ist, seine politischen Ideale aber innovativ sind. In einer abschließenden Betrachtung werden die Ambivalenzen zwischen La Roches und Campes pädagogischen und politischen Anschauungen geklärt.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
Das Web 2.0 stellt online Technologien zur Verfügung, die es Nutzern erlaubt gemeinsam Inhalte zu erstellen, zu publizieren und zu teilen. Dienste wie Twitter, CNet, CiteSeerX etc. sind Beispiele für Web 2.0 Plattformen, die zum einen Benutzern bei den oben beschriebenen Aktivitäten unterstützen und zum anderen als Quellen reichhaltiger Information angesehen werden können. Diese Plattformen ermöglichen es Nutzern an Diskussionen teilzunehmen, Inhalte anderer Nutzer zu kommentieren, generell Feedback zu geben (z.B. zu einem Produkt) und Inhalte zu publizieren, sei es im Rahmen eines Blogs oder eines wissenschaftlichen Artikels. Alle diese Aktivitäten führen zu einer großen Menge an unstrukturierten Daten. In diesem Überfluss an Informationen kann auf den persönlichen Informationsbedarf einzelner Benutzer nicht mehr individuell genug eingegangen werden kann. Methoden zur automatischen Analyse und Aggregation unstrukturierter Daten die von einzelnen Plattformen zur Verfügung gestellt werden, können dabei helfen den sich aus dem unterschiedlichen Kontext der Plattformen ergebenden Informationsbedarf zu beantworten. In dieser Arbeit stellen wir drei Methoden vor, die helfen den Informationsüberfluss zu verringern und es somit ermöglichen den Informationsbedarf einzelner Nutzer besser zu beantworten.
Der erste Beitrag dieser Arbeit betrachtet die zwei Hauptprobleme des Dienstes Twitter: die Kürze und die Qualität der Einträge und wie sich diese auf die Ergebnisse von Suchverfahren auswirken. Wir analysieren und identifizieren Merkmale für einzelne Kurznachrichten auch Twitter (sog. Tweets), die es ermöglichen die Qualität eines Tweets zu bestimmen. Basierend auf dieser Analyse führen wir den Begriff "Interestingness" ein, der als statisches Qualitätsmaß für Tweets dient. In einer empirischen Analyse zeigen wir, dass die vorgeschlagenen Maße dabei helfen qualitativ hochwertigere Information in Twitter zu finden und zu filtern. Der zweite Beitrag beschäftigt sich mit dem Problem der Inhaltsdiversifikation in einem kollaborativen sozialen System, z.B. einer online Diskussion die aus der sozialen Kollaboration der Nutzer einer Plattform entstanden ist. Ein Leser einer solchen Diskussion möchte sich einen schnellen und umfassenden Überblick über die Pro und Contra Argumente in der Diskussion verschaffen. Zu diesem Zweck wurde FREuD entwickelt, ein Ansatz der hilft das Diversifikationsproblem von Inhalten in den Griff zu bekommen. FREuD kombiniert Latent Semantic Analysis mit Sentiment Analyse. Die Evaluation von FREuD hat gezeigt, dass es mit diesem Ansatz möglich ist, einen umfassenden Überblick über die Unterthemen und die Aspekte einer Diskussion, sowie über die Meinungen der Diskussionteilnehmer zu liefern. Der dritte Beitrag dieser Arbeit ist eine neues Autoren-Thema-Zeit Modell, dass es ermöglicht Trendthemen und Benutzerinteressen in sozialen Medien zu erfassen. Der Ansatz löst dieses Problem indem er die Relationen zwischen Autoren, latenter Themen und zeitlicher Information mittels Bayes'schen Netzen modelliert. Unsere Evaluation zeigt einen verbesserte Erkennung von semantisch zusammenhaängenden Themen und liefert im weiteren Informationen darüber in wie weit die Veränderung im Interesse einzelner Autoren mit der Entwicklung einzelner Themengebiete zusammenhängt.
Die Diffusionsbildgebung misst die Bewegung von Wassermolekülen in Gewebe mittelsrnvariierender Gradientenfelder unter Verwendung der Magnetresonanztomographie(MRT). Diese Aufnahmetechnik stellt eine große Chance für in vivo Untersuchung von neuronalen Bahnen dar, da das lokale Diffusionsprofil Rückschlüsse über die Position und Richtung von Nervenbahnen erlaubt. Zu den Anwendungsgebieten der Diffusionsbildgebung zählt die Grundlagenforschung in den Neurowissenschaften, in denen Nervenbahnen als Verbindungen kortikaler Areale bestimmt werden, und die neurochirurgische Operationsplanung, in der rekonstruierte Bahnen als Risikostrukturen für Interventionen angesehen werden.
Die Diffusionstensor-MRT (DT-MRT) ist aufgrund ihrer schnellen Aufnahme- und Rekonstruktionsgeschwindigkeit derzeitig klinischer Standard zur Bestimmung von Nervenbahnen. Jedoch erlaubt die DT-MRT nicht die Darstellung von komplexen intravoxel Diffusionsverteilungen. Daher etablierte sich eine weitere Modellierungstechnik, die als High Angular Resolution Diffusion Imaging (HARDI) bekannt ist. HARDITechniken erhielten wachsendes Interesse in den Neurowissenschaften, da sie großes Potential zur exakteren Darstellung der Nervenbahnen im menschlichen Gehirn besitzen.
Um die Vorteile von HARDI-Techniken gegenüber DT-MRT voll auszuschöpfen, werden fortgeschrittene Methoden zur Rekonstruktion und Visualisierung der Bahnen benötigt. In der vorliegenden Arbeit werden neue Techniken vorgestellt, welche zur aktuellen Forschung hinsichtlich der Verarbeitung und Visualisierung von Diffusionsbildgebungsdaten beitragen. Ansätze zur Klassifizierung, Traktographie und Visualisierung wurden entwickelt um eine aussagekräftige Exploration neuronaler Bahnen und deren Beschaffenheit zu ermöglichen. Des Weiteren wurde eine interaktive Software für die neurochirurgische Operationsplanung implementiert, welche Nervenbahnen als Risikostrukturen berücksichtigt.
Die vorgestellten Forschungsergebnisse bieten einen erweiterten und aufgabenorientierten Einblick in neuronale Verbindungen sowohl für Neurowissenschaftler als auch für Neurochirurgen und tragen zum Einsatz von HARDI-Techniken in einer klinischen Umgebung bei.
Eine Fremdsprache ist mit viel Zeit, Geduld und Motivation erlernbar. Um eine Fremdsprache jedoch zu beherrschen, braucht man vertiefte Kenntnisse der Grammatik, einen sehr großen Wortschatz und eine authentische, möglichst muttersprachenähnliche ("native-like") Aussprache. Das Forschungs-projekt leistet einen Beitrag zur Untersuchung der Aussprache.
Mittels einer empirischen Untersuchung der Aussprache von Anglistik-Studierenden an der Universität Koblenz-Landau (Campus Koblenz) wird einer der schwierigsten Laute des amerikanischen Englisch analysiert. Es ist bekannt, dass der amerikanische /r/-Laut von Deutschen sehr häufig falsch ausgesprochen wird (cf. Celce-Murcia et al. 2010 und Swan & Smith 2001). Oftmals sind sich die SprecherInnen ihrer fehlerhaften Aussprache nicht einmal bewusst. Dementsprechend behandelt dieses Forschungsprojekt die folgenden Hypothesen:
(1. Hypothese) Das post-vokalische /r/ in einer unbetonten Silbe am Ende eines Wortes wird häufig nicht ausgesprochen (wie im britischen Englisch). Mittels einer spektrographischen Analyse kann die Aussprache einiger englischer Ausdrücke wie answer, Arthur, either und rather besser untersucht werden, um festzustellen, wie oft dieses /r/ fehlt.
(2. Hypothese) Das /r/ vor einer betonten Silbe wird nur in bestimmten Fällen hörbar ausgesprochen. Oft ist dies vom folgenden Vokal im Wort abhängig. Es wird behauptet, dass der /r/-Laut durch Vokale, die durch eine Rundung der Lippen erzeugt werden, beeinflusst wird. Der Koartikulation zufolge wird der /r/-Laut durch einen labialisierten stimmhaften velaren Approximanten /w/ ersetzt. Anhand verschiedener Wörter wie crawled, rat, rode, room und tree wird die /r/-Qualität in unterschiedlichen Laut-Umgebungen untersucht werden, da hier jeweils ein anderer Vokal dem /r/ folgt.
(3. Hypothese) Nach der Analyse der 1. Hypothese wird die Vokalqualität der unbetonten Silbe der vier englischen Wörter noch einmal und genauer untersucht. Häufig wird der Schwa-Laut in diesen Wörtern durch einen anderen Laut ersetzt. In diesem Fall wird der /ɐ/-Laut ausgesprochen. Um sich ein Bild von der Vokalqualität dieses Lautes machen zu können, werden drei deutsche Ausdrücke analysiert. Danach werden die deutschen Ausdrücken und die englischen Wörter mit einander verglichen. Die drei deutschen Ausdrücke sind in der, Müller und unser.
Zur Gewinnung der empirischen Daten lesen die Studierenden einen englischen Text ("Arthur the rat") und einen kurzen deutschen Satz, welche elektronisch aufgezeichnet werden. Danach werden die Tonaufzeichnungen mit Hilfe der Software "Praat" untersucht und ausgewertet. Das Ziel ist eine minutiöse Analyse ausreichend vieler authentischer Tonaufzeichnungen, anhand derer die Sprachschwierigkeiten deutscher Englischlernender mit dem /r/-Laut prognostiziert werden können. Ein solches Ergebnis ermöglicht es, Ausspracheschwierigkeiten von Anfang an entgegenzuwirken, indem in einem weiteren Schritt (der jedoch über das Ziel der Arbeit hinausgeht) entsprechende Übungsmaterialien entwickelt und eingesetzt werden. Letzteres ist nicht möglich ohne die solide Grundlagenforschung des Forschungsprojekts.
By the work presented in this thesis, the CH4 emissions of the River Saar were quantified in space and time continuously and all relevant processes leading to the observed pattern were identified. The direct comparison between reservoir zones and free-flowing intermediate reaches revealed, that the reservoir zones are CH4 emission hot spots and emitted over 90% of the total CH4. On average, the reservoir zones emitted over 80 times more CH4 per square meter than the intermediate reaches between dams (0.23 vs. 19.7 mol CH4 m-2 d-1). The high emission rates measured in the reservoir zones fall into the range of emissions observed in tropical reservoirs. The main reason for this is the accumulation of thick organic rich sediments and we showed that the net sedimentation rate is an excellent proxy for estimating ebullitive emissions. Within the hot spot zones, the ebullitive flux enhanced also the diffusive surface emissions as well as the degassing emissions at dams.
To resolve the high temporal variability, we developed an autonomous instrument for continuous measurements of the ebullition rate over long periods (> 4 weeks). With this instrument we could quantify the variability and identify the relevant trigger mechanisms. At the Saar, ship-lock induces surges and ship waves were responsible for over 85% of all large ebullition events. This dataset was also used to determine the error associated with short sampling periods and we found that with sampling periods of 24 hours as used in other studies, the ebullition rates were systematically underestimated by ~50%. Measuring the temporal variability enabled us to build up a conceptual framework for estimating the temporal pattern of ebullition in other aquatic systems. With respect to the contribution of freshwater systems to the global CH4 emissions, hot spot emission sites in impounded rivers have the potential to increase the current global estimate by up to 7%.
In der vorliegenden Arbeit wurde untersucht, ob bei Müttern, die an einer stationären Rehabilitations- bzw. Vorsorgemaßnahme für Mütter, Väter und Kinder teilnehmen, positive Ressourcenveränderungen und zwei unterschiedliche Arten von Eingangsbelastungen die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit am Ende der Maßnahme beeinflussen. Ressourcen wurden hierbei in Form der erziehungsbezogenen Selbstwirksamkeit operationalisiert, Eingangsbelastungen in Form von erziehungsbezogenen Stressoren und Depressivität. Ausgehend von der Theorie der Ressourcenerhaltung wurde postuliert, dass Ressourcenzugewinne mit Eingangsbelastungen in ihrem Effekt auf die Zufriedenheit interagieren. Bei Patientinnen mit höheren Belastungen zu Maßnahmenbeginn sollten Ressourcenzugewinne im Verhältnis einen größeren Einfluss auf die Zufriedenheit haben als bei Patientinnen mit geringeren Belastungen.
Die Hypothesen wurden an einer Stichprobe von N = 1.724 Patientinnen über Strukturgleichungsmodelle geprüft. Es zeigte sich, dass erziehungsbezogene Stressoren verschiedene Facetten der allgemeinen Lebenszufriedenheit wie auch die Zufriedenheit mit der Gesundheit am Maßnahmenende negativ beeinflussten; Ressourcenzugewinne hatten niedrige positive Effekte auf die Zufriedenheitsmaße. Eine Interaktion zwischen erziehungsbezogenen Stressoren und Ressourcenzugewinnen konnte nicht belegt werden. Wurde Depressivität als Belastungsindikator einbezogen, so übte diese einen negativen Effekt auf die Zufriedenheitsmaße aus. Ressourcenzugewinne hatten in diesen Modellen wiederum nur einen sehr geringen (bis vernachlässigbaren) positiven Einfluss auf die Facetten der allgemeinen Lebenszufriedenheit bzw. der Zufriedenheit mit der Gesundheit. Auch hier konnten entgegen den Hypothesen keine Interaktionseffekte gefunden werden. Ergänzende Analysen, in denen beide Stressorenarten gleichzeitig als Prädiktoren berücksichtigt wurden, zeigten, dass Depressivität einen deutlicheren Einfluss auf die Zufriedenheitsmaße ausübte als erziehungsbezogene Stressoren (deren Effekt niedriger ausfiel); der Effekt von Ressourcenzugewinnen war sehr gering bis nicht bedeutsam.
Des Weiteren wurde untersucht, ob problem- bzw. handlungsorientierte Bewältigungsstrategien den Effekt von (positiven) Ressourcenveränderungen auf die allgemeine Lebenszufriedenheit bzw. die Zufriedenheit mit der Gesundheit vermitteln (Nebenfragestellung). Die nur teilweise signifikanten Korrelationen zwischen Coping, Ressourcenveränderungen und den Zufriedenheitsmaßen fielen sehr niedrig aus und lagen teils nahe Null. Da keine direkten Zusammenhänge zwischen Ressourcenveränderungen und den jeweiligen Zufriedenheitsmaßen gefunden wurden, waren die Voraussetzungen für eine pfadanalytische Prüfung indirekter Effekte nicht gegeben, die in den Hypothesen formulierte vermittelnde Rolle von Coping konnte daher nicht belegt werden.
Die Studienergebnisse zeigen, dass entgegen den aus der Theorie der Ressourcenerhaltung abgeleiteten Vermutungen positive Veränderungen in Ressourcen und Belastungsindikatoren nicht voneinander in ihrer Wirkung auf verschiedene Zufriedenheitsmaße abhängig sind, sondern voneinander unabhängige Effekte ausüben, welche für die erziehungsbezogene Selbstwirksamkeit jedoch nur gering ausfallen.
Im Zentrum dieser Arbeit stehen multiple Ziele als Merkmale zur Erfassung aktueller sowie überdauernder Motivation. Im Unterricht sind sowohl auf Kompetenzerwerb gerichtete Ziele als auch Ziele, die dem Wohlbefinden dienen, valent. Zur Kategorie der Wohlbefindensziele zählt das Bestreben, mit Mitschülern zu kommunizieren (Affiliationsziel) und möglichst wenig arbeiten zu müssen (Arbeitsvermeidungsziel). Zur Kategorie kompetenzbezogener Ziele gehört das Bestreben, eigene Fähigkeiten erweitern zu wollen (Lernziel), sowie bessere Leistungen als andere erreichen (Annäherungs-Leistungsziel) bzw. schlechte Leistungen gegenüber anderen verbergen zu wollen (Vermeidungs-Leistungsziel).
Bisher ist unklar, ob man Ziele als überdauernde Trait- oder situationsabhängige State-Merkmale konzipieren sollte. Mit dieser Arbeit werden beide Aspekte differentiell konzeptualisiert und deren Zusammenhang in zwei Studien untersucht. Fraglich ist darüber hinaus, wie State-Ziele entstehen. Aus verschiedenen Motivationstheorien wird ein neues Rahmenmodell abgeleitet, in dem situative multiple State-Ziele durch die Trait-Ziele sowierndie Wahrnehmung von spezifischen Kontextmerkmalen erklärt werden. In der Literatur werden drei potentielle Zusammenhangsmuster zwischen Trait-Zielen und wahrgenommenen Situationsmerkmalen hinsichtlich der State-Ziele identifiziert: Erstens könnten Trait-Ziele und wahrgenommene Unterrichtsmerkmale State-Ziele additiv besser prädizieren im Vergleich zu deren individuellen Einfluss (additiver Effekt), zweitens könnten Trait-Ziele State-Ziele über die Unterrichtswahrnehmung mediiert das State-Ziel vorhersagen (reaktiver Effekt) und drittens könnten die Trait-Ziele abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale differentielle Effekte auf State-Ziele haben (Interaktionseffekt). Zudem macht das Rahmenmodell Aussagen zu proximalen Konsequenzen von verschiedenen State-Zielen.
Studie 1 basierte auf zwei Stichproben (N = 197 und N = 297). Die multiplen Ziel-Faktoren sowie deren State- und Trait-Komponenten wurden im Längsschnitt-Design validiert. State-Ziel-Messungen erwiesen sich als sensitiv für Situationseinflüsse und gegenüber Trait-Ziel-Messungen als differentiell valide. Studie 2 fokussierte auf die Erklärung der State-Ziel-Entstehung in aktuellen Lernsituationen. Die Annahmen des Rahmenmodells sowie die Effektmodelle wurden in einer Längsschnitt-Studie (N = 542) systematisch empirisch überprüft. Es zeigte sich erwartungsgemäß, dass kompetenzbezogene Ziele mit adaptiven Lernprozessindikatoren (z.B. Flow) korrelierten, wohingegen die Wohlbefindens-Ziele hier keine Zusammenhänge aufwiesen. Zudem konnte die additive Effekthypothese bestätigt werden, während die reaktive Effekthypothese weitestgehend zurückgewiesen werden musste. Mit latenten Moderatormodellen ließen sich einzelne Interaktionseffekte identifizieren, die zeigten, dass die Trait-Ziele einer Person - abhängig von der Ausprägung der wahrgenommenen Unterrichtsmerkmale - differentielle Effekte auf die State-Ziele haben.
In einem ersten Schritt wurden Feldbeobachtungen durchgeführt um die räumliche und zeitliche Habitatbindung von Kleinkrebsen und Mückenlarven zu erforschen. Larven der Mückenart Ae.vexans entwickelten sich synchron mit der Kleinkrebsordnung Cyclopoida innerhalb einer Woche nach Entstehung eines Gewässers. Larven der Mückenart Cx.pipiens besiedeln dieselben Gewässer wie Cladocera, wobei letztere zeitlich verzögert auftraten. Das zeitliche Auftreten der Arten wurde durch die Biotopstruktur beeinflusst. Schilfbiotope beschleunigten die Entwicklung von Kleinkrebsen, wohingegen Gewässer auf Wiesenflächen schneller von Mückenlarven besiedelt wurden. In einem zweiten Schritt wurde untersucht, auf welche Weise Mückenlarven von Kleinkrebsen beeinflusst werden. In einem Mikrokosmen-Experiment zeigte sich, dass Kleinkrebse sowohl die Eiablage der Mückenart Cx.pipiens vermindern als auch die Entwicklung der Mückenlarven beeinträchtigen. Artgemeinschaften mit hoher Artdiversität, bestehend aus verschiedenen räuberischen und filtrierenden Kleinkrebsen, reduzierten Mückenpopulationen effektiver als Artgemeinschaften mit geringer Artdiversität. Die Anwesenheit diverse Krebsgemeinschaften bewirkte zudem, dass Bti bereits in geringerer Dosierung einen Effekt erzielte und Cx.pipiens Larven längere Zeit benötigten, um ein Gewässer nach der Behandlung durch Bti wieder zu besiedeln. In einem letzten Schritt wurde der kombinierte Einsatz von Bti und Kleinkrebsen unter Freilandbedingungen erprobt. Die Kombination aus Bti und Kleinkrebsen reduzierte die Anzahl der Mückenlarven (Cx.pipiens) über den gesamten Beobachtungszeitraum hinweg. Die alleinige Ausbringung von Bti bewirkte nur eine kurzfristige Reduktion der Mückenlarve, während die Ausbringung von Kleinkrebsen keinen Effekt erzielte. Die Anwesenheit der Mückenlarven verhinderte eine ausreichende Vermehrung der Kleinkrebse, während im kombinierten Ansatz die Mückenlarven kurzzeitig durch das Bti eliminiert wurden, was die Entwicklung der eingesetzten Kleinkrebse begünstigte. Zusammenfassend konnte gezeigt werden, dass sowohl räuberische als auch filtrierende Kleinkrebse einen starken negativen Effekt auf Mückenlarven ausüben. Allerdings muss ein Zeitraum von ca. 2 Wochen überbrückt werden, bis sich eine ausreichend starke Artgemeinschaft aus Kleinkrebsen etabliert hat. Der Einsatz von Kleinkrebsen in Kombination mit dem Insektizid Bti erweist sich als vielversprechend und könnte in Zukunft dazu beitragen, Mücken effektiv und nachhaltig zu kontrollieren.
Diese Dissertation entsteht im Rahmen des Projekts Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics, welches die Optimierung der Gesundheitsversorgung in ländlichen Gebieten Südafrikas zum Ziel hat. Es besteht dabei eine Kooperation mit dem Council for Scientific and Industrial Research (CSIR) Meraka Institute mit Prof. Dr. Dr. Marlien Herselman, Pretoria, Südafrika, als zentrale Ansprechpartnerin. Die Dissertation befasst sich mit der mathematischen Modellierung für adaptive graphische Benutzerschnittstellen (GUI), die ein angepasstes Verhalten in Abhängigkeit von Geographischen Informationssystemen (GIS) besitzen und durch räumliche Fuzzy-Logik gesteuert werden. Innerhalb der Arbeit geht es um die mathematische Visualisierung von maßgeschneiderten Risiko- und Ressourcenkarten für epidemiologische Fragestellungen mit GIS und adaptives GUI-Design für eine Open Source (OS)-Anwendung für digitale Endgeräte zur räumlichen Entscheidungsunterstützung zugeschnitten auf unterschiedliche Benutzergruppen. Zur Evaluation und Initialisierung der GUI-Elemente wurde empirische Lehr-Lern-Forschung zum Umgang mit Geomedien und GUI-Elementen eingesetzt.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
Auf landwirtschaftlichen Flächen ausgebrachte Pflanzenschutzmittel (PSM) können über diffuse Eintragswege (z.B. Oberflächenabfluss) auch in Gewässer gelangen, und eine Bedrohung für die aquatische Lebensgemeinschaft darstellen. Zum Schutz der aquatischen Gemeinschaft werden im derzeitigen Verfahren der deutschen PSM-Zulassung bereits bei Bedarf spezifische Anwendungsbestimmungen festgelegt. Über diese Maßnahmen hinaus, können jedoch weitere Ansätze sinnvoll sein.
Vor diesem Hintergrund wurden in der vorliegenden Dissertation Gewässer innerhalb einer Acker- und einer Weinanbauregion in Deutschland hinsichtlich ihrer PSM-Exposition in Folge von Oberflächenabfluss und (mögliche) Effekte auf aquatische Makroinvertebraten untersucht, um zu überprüfen, ob eine Umsetzung von Risikominderungsmaßnahmen in diesen Gebieten notwendig wäre. Die Ergebnisse zeigten, dass Gewässer in beiden Gebieten PSM-Konzentrationen ausgesetzt sind, in Folge derer Effekte auf die Makroinvertebraten zu erwarten sind. In der Ackeranbauregion war die beobachtete Toxizität dabei überwiegend auf die Insektizide Lambda-Cyhalothrin (in der Wasserphase) und Alpha-Cypermethrin (in der Sedimentphase) zurückzuführen. In der Weinanbauregion waren dagegen Rückstände von Fungiziden von übergeordneter Bedeutung und neben organischen Fungiziden wurden in diesen Gewässern außerdem ökotoxikologisch bedenkliche Kupferkonzentrationen in der Wasser- als auch in der Sedimentphase gefunden. In der Ackeranbauregion wurden neben der PSM-Exposition auch Effekte der PSM auf die Gemeinschaft der aquatischen Gemeinschaften im Freiland untersucht. Die Makroinvertebratengemeinschaft wurde insgesamt überwiegend von, gegenüber PSM toleranten Arten dominiert, was eine hohe PSM-Exposition an allen Probestellen vermuten lässt. Diese Vermutung spiegelt sich auch in den erhöhten PSM-Rückständen wider (logTUMax > -2; TUMax: Maximale Toxic Unit per sample), die in den Proben der Sedimentphase festgestellt wurden. An zwei Probestellen nahm die Abundanz und Anzahl sensitiver Arten (indiziert durch das SPEcies At Risk-Indikatorsystem) in Folge toxischer Lambda-Cyhalothrinkonzentrationen in der Wasserphase (logTUMax > -0,6) ab. An gering mit PSM belasteten Gewässern (logTUMax < -3,5) konnte dagegen eine signifikante Beeinträchtigung sensitiver Makroinvertebraten nicht festgestellt werden. Insgesamt zeigen die Ergebnisse, dass in beiden Untersuchungsgebieten die Umsetzung von Maßnahmen zum Schutz der aquatischen Gemeinschaft notwendig wäre.
Für Oberflächenabfluss werden häufig bewachsene Uferrandstreifen als Minderungsmaßnahme vorgeschlagen. Ein mindernder Einfluss auf die PSM-Konzentration mit zunehmender Breite konnte jedoch für die bereits in den Untersuchungsregionen vorhandenen Uferrandstreifen nicht festgestellt werden. Dieses Ergebnis konnte in der Weinanbauregion auf die hohe Anzahl an befestigten Feldwegen und damit verbundener Wegeinleitungen zurückgeführt werden, die den Oberflächenabfluss in konzentrierter Form zügig in Richtung Gewässer ableiten, und damit die Reduktionseffektivität der Uferrandstreifen erheblich reduzieren. Ein ähnlicher Prozess fand vermutlich auch in der Ackeranbauregion statt, in Folge einer hohen Anzahl an Erosionsrillen, die ein flächenhaftes Eindringen des Oberflächenabflusses in den Randstreifen und damit eine effektive Filterung verhindern. Außerdem dürften Entwässerungsgräben, welche den Oberflächenabfluss von den landwirtschaftlichen Flächen in die Gewässer weiterleiten, zu den beobachteten PSM-Konzentrationen trotz breiter Uferrandstreifen beigetragen haben.
Um PSM-Einträge über Oberflächenabfluss effektiv zu reduzieren, sollten Risikominderungsmaßnahmen umgesetzt werden, die auf die jeweilig identifizierten Haupteintragswege fokussieren. Als geeignete Maßnahmen wurden mit Gras bewachsene Feldwege und bewachsene Gräben oder Rückhaltebecken identifiziert. Darüber hinaus kann auch die Optimierung bereits vorhandener Uferrandstreifen hinsichtlich ihrer Reduktionseffektivität sinnvoll sein. Insgesamt zeigen die Daten der beiden Freilanduntersuchungen die große Bedeutung, Maßnahmen spezifisch für die jeweilige PSM-Belastungssituation von Gewässern zu identifizieren. Um diesen Prozess zu unterstützen wurde im Rahmen der vorliegenden Dissertation ein Leitfaden für die Identifizierung geeigneter Risikominderungsmaßnahmen an belasteten Gewässern entwickelt. Basierend auf einer Kartierung expositionsrelevanter landschaftlicher Parameter wird ein Set an geeigneten Maßnahmen für die jeweilige Belastungssituation vorgeschlagen. Anhand einer Bewertung der Effektivität dieser Maßnahmen PSM-Einträge zu reduzieren, ihrer Umsetzbarkeit und zu erwartenden Akzeptanz kann der Anwender schließlich die jeweiligen Maßnahmen zur Umsetzung auswählen. Der Leitfaden leistet damit einen wichtigen Beitrag zur praktischen Implementierung von Minderungsmaßnahmen.
English prepositions take only a small proportion of the language but play a substantial role. Although prepositions are of course also frequently used in English textbooks for secondary school, students fail to incidentally acquire them and often show low achievements in using prepositions correctly. The strategy commonly employed by language instructors is teaching the multiple senses of prepositions by rote which fails to help the students to draw links between the different meanings in usage. New findings in Cognitive Linguistics (CL) suggest a different approach to teaching prepositions and thus might have a strong impact on the methodologies of foreign language teaching and learning on the aspects of meaningful learning. Based on the Theory of Domains (Langacker, 1987), the notions of image schemas (Johnson, 1987) as well as the Conceptual Metaphor Theory (Lakoff & Johnson, 1980), the present study developed a CL-inspired approach to teaching prepositions, which was compared to the traditional teaching method by an empirical study conducted in a German school setting. Referring to the participants from the higher track and the medium track, who are at different proficiency levels, the results indicate that the CL-inspired teaching approach improved students" performance significantly more than the traditional approach in all the cases for the higher track and in some cases for the medium track. Thus, these findings open up a new perspective of the CL-inspired meaningful learning approach on language teaching. In addition, the CL-inspired approach demonstrates the unification of the integrated model of text and picture comprehension (the ITPC model) in integrating the new knowledge with related prior knowledge in the cognitive structure. According to the learning procedure of the ITPC model, the image schema as visual image is first perceived through the sensory register, then is processed in the working memory by conceptual metaphor, and finally it is integrated with cognitive schemata in the long term memory. Moreover, deep-seated factors, such as transfer of mother tongue, the difficulty of teaching materials, and the influence of prior knowledge, have strong effects on the acquisition of English prepositions.
Früher wurden in Museen den Besuchern meist gesicherte Wissensbestände präsentiert. Heute ist das vielfach anders: Nicht nur fraglos geltendes Wissen, sondern auch der Prozess dorthin wird aufgezeigt. Die dargebotene Information ist teilweise nicht mehr konsistent und widerspruchsfrei sondern konfligierend. Wie aber reagieren die Besucher auf konfligierende Information? Wie unterstützen ihre persönlichen Vorrausetzungen eine differenziertere Betrachtung? Wie können Museen " obwohl ihre Information doch freiwillig, selbstbestimmt, ohne Zwang und Pression rezipiert wird - die Informationsverarbeitung ihrer Besucher durch eine bestimmte räumliche Informationsanordnung beeinflussen? Diese Fragen wurden mittels vier Feldstudien vor Ort untersucht:
Studie 1 charakterisiert Museumsbesucher durch Persönlichkeitsprofile, die aus den für die Verarbeitung konfligierender Information als relevant betrachteten Personenmerkmalen (epistemologischen Überzeugungen, Ambiguitätstoleranz, Selbstwirksamkeitsannahmen) erstellt sind.
Studie 2 untersucht den Einfluss dieser Personenmerkmale und des situationalen Interesses auf die Tendenz zur Konfliktverarbeitung, ohne Fähigkeiten und Fassungskraft des Besuchers zu berücksichtigen.
Studie 3 überprüft die Effekte von situationalem Interesse, epistemologischen Überzeugungen, Ambiguitätstoleranz und Selbstwirksamkeitsannahmen auf die Konfliktverarbeitungsleistung.
In Studie 4 wird schließlich die Wirkung räumlich naher Informationspräsentation untersucht.
Museumsbesucher können durch die Persönlichkeitsprofile "selbstzweifelnd skeptisch", "selbstbewusst vertrauensvoll" und "stabilitätsgläubig" charakterisiert werden. Eine überwältigende Mehrheit zeigt die Bereitschaft, Konflikte wahrzunehmen und ein großer Teil ist darüber hinaus bereit, konfligierende Informationen auf tieferer Ebene zu verarbeiten. Eine räumlich nahe (thematisch kontinuierliche) Präsentation unterstützt die Tendenz, tief zu verarbeiten. Etwa drei Viertel der Besucher konnten erkennen, wann konfligierende Information logisch widersprüchlich ist und konnten überzufällig gut bei konsistenter und konfligierender Information Kohärenz bilden. Positive Selbstwirksamkeitsannahmen unterstützen vermittelt über hohes situationales Interesse die Tendenz, Information tiefer zu verarbeiten und steigern die Fähigkeit, Kohärenz zu bilden. Reifere epistemologische Überzeugungen der Dimension "Sicherheit" und "Veränderlichkeit" fördern Kohärenzbildung.
Interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web
(2013)
Die Informationsmenge im Web nimmt stetig zu und auch die Art und Vielfalt von Informationen wird immer größer. Es stehen die unterschiedlichsten Informationen wie Nachrichten, Artikel, Statistiken, Umfragedaten, Börsendaten, Veranstaltungen, Literaturnachweise usw. zur Verfügung. Die Informationen zeichnen sich durch Heterogenität in Aspekten wie Informationsart, Modalität, Strukturiertheit, Granularität, Qualität und ihre Verteiltheit aus. Die zwei Haupttechniken, mit denen Nutzer im Web nach diesen Informationen suchen, sind die Suche mit Websuchmaschinen und das Browsing über Links zwischen Informationseinheiten. Die vorherrschende Art der Informationsdarstellung ist dabei weitgehend statisch in Form von Text, Bildern und Grafiken. Interaktive Visualisierungen bieten eine Reihe von Vorteilen für die Aufbereitung und Exploration von heterogenen Informationen im Web: (1) Sie bieten verschiedene Darstellungsformen für unterschiedliche, sehr große und auch komplexe Informationsarten und (2) große Datenmengen können interaktiv anhand ihrer Eigenschaften exploriert werden und damit den Denkprozess des Nutzers unterstützen und erweitern. Bisher sind interaktive Visualisierungen aber noch kein integraler Bestandteil des Suchprozesses im Web. Die technischen Standards und Interaktionsparadigmen, um interaktive Visualisierungen als Massentechnik im Web nutzbar zu machen, werden erst langsam durch Standardisierungsgremien eingeführt. Diese Arbeit untersucht, wie interaktive Visualisierungen für den Linking- und Suchprozess heterogener Informationen im Web eingesetzt werden können. Basierend auf Grundlagen in den Bereichen Informationssuche, Informationsvisualisierung und Informationsverarbeitung wird ein Modell gebildet, das bestehende Strukturmodelle der Informationsvisualisierung um zwei neue Prozesse erweitert: (1) das Linking von Informationen in Visualisierungen und (2) das Glyphenbasierte Suchen, Browsen und Filtern. Das Vizgr-Toolkit implementiert das entwickelte Modell in einer Webanwendung. In vier verschiedenen Anwendungsszenarien werden Teilaspekte des Modells instanziiert und in Nutzertests evaluiert oder anhand von Beispielen untersucht.
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Chemical plant protection is an essential element in integrated pest management and hence, in current crop production. The use of Plant Protection Products (PPPs) potentially involves ecological risk. This risk has to be characterised, assessed and managed.
For the coming years, an increasing need for agricultural products is expected. At the same time, preserving our natural resources and biodiversity per se is of equally fundamental importance. The relationship of our economic success and cultural progress to protecting the environment has been made plain in the Ecosystem Service concept. These distinct 'services' provide the foundation for defining ecological protection goals (Specific Protection Goals, SPGs) which can serve in the development of methods for ecological risk characterisation, assessment and management.
Ecological risk management (RM) of PPPs is a comprehensive process that includes different aspects and levels. RM is an implicit part of tiered risk assessment (RA) schemes and scenarios, yet RM also explicitly occurs as risk mitigation measures. At higher decision levels, RM takes further risks, besides ecological risk, into account (e.g., economic). Therefore, ecological risk characterisation can include RM (mitigation measures) and can be part of higher level RM decision-making in a broader Ecosystem Service context.
The aim of this thesis is to contribute to improved quantification of ecological risk as a basis for RA and RM. The initial general objective had been entitled as "… to estimate the spatial and temporal extent of exposure and effects…" and was found to be closely related to forthcoming SPGs with their defined 'Risk Dimension'.
An initial exploration of the regulatory framework of ecological RA and RM of PPPs and their use, carried out in the present thesis, emphasised the value of risk characterisation at landscape-scale. The landscape-scale provides the necessary and sufficient context, including abiotic and biotic processes, their interaction at different scales, as well as human activities. In particular, spatially (and temporally) explicit landscape-scale risk characterisation and RA can provide a direct basis for PPP-specific or generic RM. From the general need for tiered landscape-scale context in risk characterisation, specific requirements relevant to a landscape-scale model were developed in the present thesis, guided by the key objective of improved ecological risk quantification. In principle, for an adverse effect (Impact) to happen requires a sensitive species and life stage to co-occur with a significant exposure extent in space and time. Therefore, the quantification of the Probability of an Impact occurring is the basic requirement of the model. In a landscape-scale context, this means assessing the spatiotemporal distribution of species sensitivity and their potential exposure to the chemical.
The core functionality of the model should reflect the main problem structures in ecological risk characterisation, RA and RM, with particular relationship to SPGs, while being adaptable to specific RA problems. This resulted in the development of a modelling framework (Xplicit-Framework), realised in the present thesis. The Xplicit-Framework provides the core functionality for spatiotemporally explicit and probabilistic risk characterisation, together with interfaces to external models and services which are linked to the framework using specific adaptors (Associated-Models, e.g., exposure, eFate and effect models, or geodata services). From the Xplicit-Framework, and using Associated-Models, specific models are derived, adapted to RA problems (Xplicit-Models).
Xplicit-Models are capable of propagating variability (and uncertainty) of real-world agricultural and environmental conditions to exposure and effects using Monte Carlo methods and, hence, to introduce landscape-scale context to risk characterisation. Scale-dependencies play a key role in landscape-scale processes and were taken into account, e.g., in defining and sampling Probability Density Functions (PDFs). Likewise, evaluation of model outcome for risk characterisation is done at ecologically meaningful scales.
Xplicit-Models can be designed to explicitly address risk dimensions of SPGs. Their definition depends on the RA problem and tier. Thus, the Xplicit approach allows for stepwise introduction of landscape-scale context (factors and processes), e.g., starting at the definitions of current standard RA (lower-tier) levels by centring on a specific PPP use, while introducing real-world landscape factors driving risk. With its generic and modular design, the Xplicit-Framework can also be employed by taking an ecological entity-centric perspective. As the predictive power of landscape-scale risk characterisation increases, it is possible that Xplicit-Models become part of an explicit Ecosystem Services-oriented RM (e.g., cost/benefit level).
Die Wirbelsäule als tragende Säule des menschlichen Körpers ist bei vielen Bewegungsabläufen hohen Belastungen ausgesetzt. Fehl- und Überbelastungen rufen dabei oft dauerhafte Schädigungen hervor. Daher ist es von Interesse, die innerhalb der Wirbelsäule auftretenden Belastungen zu bestimmen. Eine moderne und zuverlässige Methode zur Belastungsbestimmung ist der Aufbau eines Berechnungsmodells.
In der vorliegenden Arbeit wurde ein Mehr-Körper-System (MKS) Modell der Lendenwirbelsäule erstellt. Mit Hilfe des Modells können sowohl die übertragenen Kräfte und Momente in allen inneren Strukturen berechnet als auch die Kinematik des Bewegungsablaufs simuliert werden. Die Grundstruktur des Modells bilden die als Starrkörper angenommenen knöchernen Strukturen der fünf Lendenwirbel L1 bis L5, des Os Sacrums und des Os iliums, die über die Segmentierung eines CT-Datensatzes des Abgusses der Wirbeloberflächen eines durchschnittlich großen Europäers gewonnen wurden. Die elastischen Elemente der Wirbelsäule wurden unter Berücksichtigung ihrer physikalischen Eigenschaften in das Modell implementiert. Grundlage für die Modellierung der Zwischenwirbelscheiben waren dabei eigens durchgeführte experimentelle Messungen. Das charakteristische Kraft-Deformations-Verhalten der Ligamente wurde der Literatur entnommen.
Die Umsetzung im Computermodell berücksichtigt neben dem physikalischen Verhalten eines einzelnen Ligamentes zusätzlich durch einen Gewichtungsfaktor das Zusammenspiel aller Ligamente im komplex aufgebauten Ligamentapparat. Die Facettengelenke wurden durch Kontaktmodellierung in den Knorpelschichten realisiert. Daneben wurde ein Modell eines Implantatsystems entwickelt, das zur dynamischen Stabilisierung der Lendenwirbelsäule genutzt wird. Die Validierung der erstellten Modelle erfolgte über den Vergleich mit In-Vitro erhobenen Daten. Betrachtet wurden neben der intakten Wirbelsäule zudem degenerative Schädigungen der Zwischenwirbelscheibe und deren operative Versorgung durch Nukleotomie und dynamische Stabilisierung. Die Ergebnisse der Simulationen zeigen dabei eine sehr gute Näherung an die experimentell ermittelten Messwerte. Durch Anwendung der Computermodelle konnten die Auswirkungen verschiedener operativer Eingriffe, wie Interlaminotomie, Hemilaminektomie und Laminektomie auf die unterschiedlichen Strukturen der Lendenwirbelsäule berechnet werden. Ein weiteres Anwendungsgebiet lag in der Untersuchung des momentanen Drehzentrums. Neben der Bestimmung der Drehpunktbahn bei intakter Wirbelsäule konnten die Effekte einer degenerativ geschädigten und operativ versorgten Zwischenwirbelscheibe auf den Verlauf des momentanen Drehzentrums berechnet und simuliert werden.
Die vorliegende Arbeit wurde verfasst, um Einflüsse und Zusammenhänge von Mitarbeiterzufriedenheit auf Burnout zu erforschen. Zudem wurde der Frage nachgegangen, inwieweit organisationsbedingte Variablen beim Zusammenhang von Mitarbeiterzufriedenheit und Burnout bei Flugbegleitern eine Rolle spielen. Hierfür wurde die Airline-Branche, genau genommen das Kabinenpersonal als Repräsentant, verwendet und eine umfangreiche Arbeitsplatzanalyse durchgeführt.
Zur Erfassung der vielfältigen Dimensionen der Mitarbeiterzufriedenheit diente der Fragebogen zur Erfassung der Mitarbeiterzufriedenheit (FEMAZU), sowie für die Facetten von Burnout die Burnout-Screening-Skalen (BOSS) "Beruf" und "körperliche Beschwerden". Die organisationsbedingten Variablen wurden im Zuge einer Gruppendiskussion erhoben und zu entsprechenden Statements ausformuliert, um für den Fragebogen verwendet werden zu können. Dieser wurde im nach der Erstellung durch einen Pretest praktisch validiert. Die Online-Erhebung erfolgte anhand 420 Flugbegleitern im deutschsprachigen Raum.rnZu der quantitativen Erhebung wurde eine qualitative Methode angewandt, um detaillierter Informationen bezüglich der Komplexität in Entstehung und Verlauf der Krankheitsgeschichte von Burnout zu bekommen und Hinweise für die Einwirkung organisationsbedingter Variablen zu erhalten.
Entsprechend der repräsentativen Stichprobe in der vorliegenden Arbeit konnte ein starker Zusammenhang von Mitarbeiterzufriedenheit auf die verschiedenen Facetten von Burnout erwiesen sowie überwiegend signifikante Ergebnisse verzeichnet werden. Als wesentliche Einflussvariablen konnten individuelle Ziele, Arbeitsbedingungen, Aufgabenfeld, Empowerment, Commitment, Emotionsregulation und Work-Life-Balance identifiziert werden. Bedingt durch die ohnehin sehr speziellen Arbeitsbedingungen im Berufsleben der Flugbegleiter sollten die Airlines bei ihren Mitarbeitern auf eine ausgeglichene Work-Life-Balance achten. Die Ergebnisse zeigten hierfür deutliche Zusammenhänge mit Mitarbeiterzufriedenheit und Burnout. Um entsprechende ausfallsbedingten Kosten vorzubeugen, wurde in der vorliegenden Arbeit eine Handlungsempfehlung gegeben. Durch die hohe Flexibilitätsanforderung in der Tätigkeit des Kabinenpersonals sowie den zahlreichen physiologischen Einflüssen wie beispielsweise Lärm, Jetlag, Schichtdienst oder Zeitverschiebungen ist es für Unternehmen, die auf langfristige Mitarbeiter setzen besonders wichtig, an dieser Stelle häufigen und langen krankheitsbedingten Fehlzeiten vorzubeugen. Eine höhere Planstabilität, ein größerer Einfluss auf die Plangestaltung und ausreichend Ruhezeit würde beispielsweise der Vereinbarkeit von Beruf und Privat entgegen kommen.
Andere in der Literatur als bedeutend eruierten Variablen, wie bspw. die Arbeitsplatzsicherheit und der Zivilstand, zeigten keine oder nur eine sehr geringe Signifikanz. Abschließend wurden Faktoren, welche einen Einfluss auf das Ergebnis haben könnten, ausführlich erläutert und diskutiert sowie eine Empfehlung für die Praxis und zukünftige wissenschaftliche Untersuchungen abgeleitet. Insbesondere der Forschungsausblick zeigt, dass der Zusammenhang der Dimensionen Mitarbeiterzufriedenheit und Burnout, welche anhand der Stichprobe der Flugbegleiter in dieser Arbeit erhoben wurde, noch umfassende Erforschungen erfordert, um hier vor allem für die Wirtschaft Verbesserungen und entsprechende Kostenreduktion bewirken zu können. Sowohl für die Wirtschaft als auch die Wissenschaft wäre eine engere Zusammenarbeit wünschenswert und gewinnbringend.
Die zweitgrößte Teilgruppe der Chrysomelidae sind die Galerucinae Latreille, 1802. Zu diesen gehört das Taxon Ootheca, das Chevrolat 1837 festlegte und das ursprünglich nur eine beschriebene Art enthielt. In den nachfolgenden Jahrhunderten wurden in der Gattung Ootheca alle Galerucinae von "kompakter" Körpergestalt, mit breitem Pronotum, stark konvexem Dorsum, kurzen Antennen und kurzen Beinen beschrieben. Zu Beginn meiner Revision umfasste die Gruppe 38 Arten. Durch Vergleich charakteristischer morphologischer Eigenschaften des Ektoskeletts in Kombination mit den morphologischen Strukturen des männlichen Genitals - dargestellt in detaillierten Zeichnungen und Beschreibungen - konnten einzelne Arten von Ootheca beschrieben werden und gegenüber anderen Taxa der Galerucinae abgegrenzt werden. Nach der Revision blieben in der Gattung Ootheca 9 Arten als valide zurück, 4 Arten wurden neu beschrieben, 13 Arten wurden in andere revidierte Gattungen transferiert, und 10 Arten wurden noch nicht bearbeitet, weil sie bisher nicht zugeordnet werden konnten. Weiterhin wurden drei neue monophyletische Gruppen, Schwestertaxa, zu Ootheca beschrieben: Oothecoides (6 Arten), Ootibia (5 Arten ) und Oosagitta (6 Arten).
Die Wechselwirkungen zwischen Polysacchariden und Wasser am Beispiel der Modellsubstanz Hyaluronan
(2013)
Die Wasseraufnahme von Polysacchariden wird derzeit intensiv erforscht. Wechselwirkungen zwischen Wasser und herkömmlichen oder modifizierten Polysacchariden und Polysaccharid-basierten Biokonjugaten bestimmen maßgeblich deren Funktionalität. Trotz intensiver Forschung gibt es weiterhin eine Reihe offener Fragen darüber, wie Wasser die Struktur der Polysaccharide beeinflusst und welche Konsequenzen das für ihre industrielle und medizinische Anwendung hat. Die Wechselwirkungen zwischen Wasser und Polysacchariden werden oft durch übereinanderliegende "Schichten" von Wasser verbildlicht, dessen physikalische Eigenschaften sich in Abhängigkeit vom Abstand zur Polysaccharid-Moleküloberfläche verändern.
In der vorliegenden Arbeit wurden solche "Wasserschichten" in dem Modell"Polysaccharid Hyaluronan (HYA), einem Natriumsalzsalz bestehend aus ß -1,4-Verknüpfungen der ß -1,3-verknüpften D-Glucuronsäure und des N-Acetyl-D-Glucosamins, untersucht. Mithilfe der Dynamischen Differenzkalorimetrie (engl.: Differential Scanning Calorimetry, DSC) können diese Wasserschichten hinsichtlich ihres Gefrierverhaltens unterschieden werden. Bei HYA-Molekülgewichten von 100 bis 740kDa betrug die Menge "nicht gefrierbaren" Wassers, d.h. von Wasser in unmittelbarer Nähe der HYA Molekülketten, 0.74gH2O/gHYA und bei einem Molekülgewicht von 139kDa betrug sie 0.84gH2O/gHYA. Die Menge von "gefrierbar gebundenem" Wasser, also des Anteiles, der zwar noch vom HYA Molekül beeinflusst wird, aber trotzdem gefrierbar ist, betrug zwischen 0.74 und 2gH2O/gHYA. Oberhalb dieses Wassergehaltes liegt nur "nicht gefrierbares" und "freies" Wasser vor, da die Schmelzenthalpie bei höheren Wassergehalten der von reinem Wasser entspricht. Die Charakterisierung der Wasserbindung durch die Bestimmung von Schmelzenthalpien unterliegt experimentellen Einschränkungen. Daher wurde ein neuer Ansatz basierend auf der Bestimmung von Verdampfungsenthalpien vorgeschlagen. Verdampfungsenthalpien von HYA unterhalb eines Wassergehaltes von 0.34gH2O/gHYA wiesen auf einen zusätzlichen möglicherweise exothermen Prozess hin, der auch in der protonierten Form des HYA beobachtet werden konnte.
Dieser Prozess wurde durch die Kissinger-Akahira-Sunose Methode bestätigt, die Bestimmung der tatsächlichen Verdampfungs und Desorptionsenthalpien des Wassers in allen Stadien des Verdampfungsprozesses erlaubt. Tatsächlich nahm die scheinbare Verdampfungsenthalpie bis zu einem Wassergehalt von 0.34gH2O/gHYA zu und sank dann wieder zu niedrigeren Werten ab, die allerdings immer noch deutlich über der Verdampfungsenthalpie von reinem Wasser lagen. Mithilfe von zeitlich aufgelöster Kernspinresonanz Technik (engl.: Time Domain Nuclear Magnetic Resonance, TD-NMR) wurde gezeigt, dass es sich bei besagtem Prozess um die Plastifizierung von HYA handelt.
Außerdem konnte das mithilfe der DSC bestimmte "nicht gefrierbare" Wasser in zwei weitere Fraktionen unterteilt werden. Ein Anteil von 15% dieses Wassers tritt direkt in Wechselwirkung mit den polaren funktionellen Gruppen und wird als "strukturell integriertes" Wasser bezeichnet und ein Anteil von 85% ist zwischen HYA Molekülketten eingebettet und wird als "strukturell eingeschränktes" Wasser bezeichnet. Da der Erweichungspunkt in der Nähe des Gleichgewichtswassergehalts liegt, bietet die er die Möglichkeit, die physikalische Struktur von HYA durch Trocknung zu beeinflussen. Dafür wurden drei Proben des ursprünglichen HYA unter unterschiedlichen Bedingungen getrocknet und ihre physikalischen Eigenschaften untersucht. Die Proben unterschieden sich in der Kinetik der erneuten Wasseraufnahme, im Glasübergangsverhalten und in ihrer Morphologie. Die Eigenschaften der Wasserfraktionen wurden in Lösungen mit 10"25 mg HYA/mL bestimmt. Feldzyklus-NMR (eng.: Fast-field-cycling FFC-NMR) Messungen zeigten drei Wasserfraktionen die mit dem Abstand zur HYA Moleküloberfläche abnehmende Korrelationszeiten zwischen 10"6 bis 10"10 s aufwiesen.
Außerdem wurde die Bildung schwacher relativ kurzlebiger Wasserbrücken zwischen den HYA Molekülketten beobachtet. Anders als für anorganische Elektrolyte, ist die Wasseraufnahme durch organische Polyelektrolyte ein dynamischer Prozess, der nicht nur die Analysetechnik und die experimentellen Bedingungen sondern auch die Konformation der Polyelektrolyte und deren thermische und Wassergehalts-Vorgeschichte widerspiegelt. Dadurch können einige Polysaccharidstrukturen nur durch Veränderung der Probenvorbereitung und ohne chemische Modifikationen verändert und Produkte mit spezifischen physiko-chemischen Eigenschaften gewonnen werden.
Der nachhaltige Grundwasserschutz erfordert ein Bewertungssystem, das Aussagen über den Ökosystemzustand zulässt. Folglich sollten, zusätzlich zu physikochemischen Analysen, auch faunistische und mikrobiologische Kriterien bei der Grundwasserbewertung berücksichtigt werden. Um die Anwendbarkeit und Eignung von Grundwasserorganismen für eine qualitative Grundwasserbewertung zu überprüfen, wurden zwischen 2002 und 2009 umfassende Untersuchungen verschiedener Grundwasservorkommen Deutschlands durchgeführt. Schwerpunkte waren die Überprüfung des Indikatorpotenzials von Grundwasserlebensgemeinschaften gegenüber Oberflächenwasser-Grundwasser-Interaktionen und anthropogener Belastungen sowie die Analyse stygofaunaler Verbreitungsmuster, als Basis und Referenz für ein faunistisches Bewertungssystem für Grundwasserlebensräume. Die Grundwasseruntersuchungen berücksichtigen lokale, regionale und biogeografische Verhältnisse. Um das Indikatorpotenzial der Grundwasserorganismen auf lokaler und regionaler Skala zu überprüfen, wurden Grundwassersysteme in Nordrhein-Westfalen (NRW) und Baden-Württemberg (BW) untersucht. Anhand der faunistischen und mikrobiologischen Daten aus quartären Lockergesteinsleitern im Erftgebiet (NRW) konnte die Sensibilität der Grundwasserorganismen gegenüber Landnutzungseffekten, z. B. extensive Landwirtschaft, aufgezeigt werden. Die Datenanalysen ergaben positive Korrelationen von organischem Material (geschätzter Detritus, TOC) und Nitrat mit der faunistischen Abundanz, Artenzahl und Diversität sowie dem Anteil grundwasserfremder Arten. Auch die bakterielle Abundanz und Diversität im Grundwasser des Erftgebiets war, verglichen mit oligotrophen Grundwassersystemen, hoch.
Die Grundwassergemeinschaften zeigen einen erhöhten Oberflächeneintrag ins Grundwasser an, der mit der starken landwirtschaftlichen Nutzung einhergeht. Die Besiedlung des Grundwassers im Alb-Donau-Kreis (BW) wurde auf regionale (Naturraum, Grundwasserleitertyp, Hydrogeologie) und lokale Effekte (Vergleich einzelner Messstellen) untersucht. Dabei reflektierte die Fauna die Stärke des hydrologischen Austauschs auf unterschiedlichen räumlichen Skalen und zeigte auch die Überlagerung regionaler und lokaler Effekte an. Demnach hatten die hohe Konnektivität der untersuchten Karst- und Lockergesteinssysteme, Landnutzung, abschirmende Deckschichten, unterschiedliches Grundwasseralter und Messstellentiefe Auswirkungen auf die Diversität und Abundanz der Gemeinschaften. Die Bakteriengemeinschaften reflektierten vor allem die Zugehörigkeit aller Messstellen zu einem Grundwassersystem. Insgesamt sind die faunistischen und mikrobiologischen Daten charakteristisch für oligotrophe, oligoalimonische Grundwässer. Die Untersuchung großräumiger Besiedlungsmuster der Grundwasserfauna ergab signifikante biogeografische Unterschiede. Die subterranen Besiedlungsmuster weichen deutlich von bestehenden Gliederungssystemen für oberirdische Landschaften oder Fließgewässerzönosen ab. Die größten Abweichungen zwischen den stygofaunalen Verbreitungsmustern und den oberirdischen Gliederungssystemen wurden vor allem in den eiszeitlich überprägten Gebieten Nord- und Süddeutschlands sowie in den Vorgebirgsregionen der zentralen Mittelgebirge beobachtet.
Anhand der erfassten Daten konnten vier Stygoregionen definiert werden, die deutlich unterschiedliche Faunengemeinschaften aufweisen: 1) das "Nördliche Tiefland", 2) die "Zentralen Mittelgebirge", 3) die "Südwestlichen Mittelgebirge" sowie 4) die "Südlichen Mittelgebirge und die Alpen". Die Ergebnisse zeigen die generelle Anwendbarkeit und Eignung der Stygofauna und der mikrobiellen Gemeinschaften für die qualitative Bewertung von Grundwasserökosystemen. Für die biologische Bewertung von Grundwassersystemen sind die faunistische Diversität, Abundanz und die Artenzusammensetzung, die Einteilung in stygobionte (obligate Grundwasserarten) und nicht-sytgobionte Arten sowie die bakterielle Abundanz geeignete Indikatoren für anthropogene Belastungen im Grundwasser. Die Entwicklung eines ökologisch orientierten Erfassungs- und Bewertungssystem für Grundwasserlebensräume ist unabdingbar für ein nachhaltiges Grundwassermanagement, welches den Erhalt unserer Grundwassersysteme und Trinkwasserversorgung gewährleistet. Die Definition von Stygoregionen ist ein entscheidender Schritt für die Entwicklung eines Bewertungs- und Referenzsystems für Grundwasserlebensräume. Die Bewertung des Ökosystemzustands von Grundwassersystemen muss jedoch auf lokaler Skala erfolgen, da die Zusammensetzung der Grundwassergemeinschaften durch die Stärke des lokalen hydrologischen Austauschs mit Oberflächensystemen geprägt ist. Von diesem hängt die Menge an verfügbarer Nahrung, Sauerstoff und konkurrierenden Oberflächenarten im Grundwasser abhängt. Zusätzlich sind Kenntnisse biogeografischer und regionaler Verhältnisse notwendig - als Referenz für das potenzielle Vorkommen von Arten und Abundanzen bestimmter Grundwassersysteme.
Die Suche nach wissenschaftlicher Literatur ist eine Forschungsherausforderung für das Information Retrieval im besonderen Umfeld der digitalen Bibliotheken. Aktuelle Nutzerstudien zeigen, dass im klassischen IR-Modell zwei typische Schwächen auszumachen sind: das Ranking der gefundenen Dokumente und Probleme bei der Formulierung von Suchanfragen. Gleichzeitig ist zu sehen, dass traditionelle Retrievalsysteme, die primär textuelle Dokument- und Anfragemerkmale nutzen, bei IR-Evaluationskampagnen wie TREC und CLEF in ihrer Leistung seit Jahren stagnieren.
Zwei informetrisch-motivierte Verfahren zur Suchunterstützung werden vorgestellt und mittels einer Laborevaluation mit den beiden IR-Testkollektionen GIRT und iSearch sowie 150 und 65 Topics evaluiert. Die Verfahren sind: (1) eine auf der Kookkurrenz von Dokumentattributen basierende Anfrageerweiterung und (2) ein Rankingansatz, der informetrische Beobachtungen zur Produktivität von Informationserzeugern ausnutzt. Beide Verfahren wurden mit einer Referenzimplementation auf Basis der Suchmaschine Solr verglichen. Beide Verfahren zeigen positive Effekte beim Einsatz von zusätzlichen Dokumentattributen wie Autorennamen, ISSN-Codes und kontrollierten Schlagwörtern. Bei der Anfrageerweiterung konnte ein positiver Effekt in Form einer Verbesserung der Precision (bpref +12%) und des Recall (R +22%) erzielt werden. Die alternativen Rankingansätze konnten beim Ansatz von Autorennamen und ISSN-Codes die Baseline erreichen bzw. diese beim Einsatz der kontrollierten Schlagwörter über- treffen (MAP +14%). Einen negativen Einfluss auf das Ranking hatten allerdings die Einbeziehung von Faktoren wie Verlagsnamen oder Erscheinungsorten. Für beide Verfahren konnte eine substantiell andere Sortierung der Ergebnismenge, gemessen anhand von Kendalls, beobachtet werden. Zusätzlich zu der verbesserten Relevanz der Ergebnisliste kann der Nutzer so eine neue Sicht auf die Dokumentenmenge gewinnen.
Die Anfrageerweiterung mit Autorennamen, ISSN-Codes und Thesaurustermen zeigt das bisher ungenutzte Potential, das sich in digitalen Bibliotheken durch die Datenfülle und -qualität ergibt. Die Rankingverfahren konnten die Leistung des Baseline-Systems übertreffen, nachdem eine Überprüfung auf Vorliegen einer Power Law-Verteilung und eine anschließende Filterung durchgeführt wurde. Dies zeigt, dass die Rankingverfahren nicht universell für alle Suchanfragen anwendbar sind, sondern ein Vorhandensein bestimmter Häufigkeitsverteilungen voraussetzen. So wird die enge Verbindung der Verfahren zu informetrischen Gesetzmäßigkeiten wie Bradfords, Lotkas oder Zipfs Gesetz deutlich. Die beiden in der Arbeit evaluierten Verfahren sind als interaktive Suchunterstützungsdienste in der sozialwissenschaftlichen digitalen Bibliothek Sowiport implementiert. Die Verfahren lassen sich über entsprechende Web- Schnittstellen auch in anderen Anwendungskontexten einsetzen.
Kapitel 1 führt - unter Berücksichtigung gesamtgesellschaftlicher Tendenzen im Hinblick auf verschiedene Lebensformen - zunächst in das Thema ein. Auf Basis der Tatsache geringer Scheidungsraten von Managerehen werden unterschiedliche Annahmen formuliert, die für die Ehestabilität dieser Paare eine Rolle spielen könnten.
Im Weiteren werden hier wesentliche Fragestellungen zum Thema der vorliegenden Arbeit und deren Zielsetzung begründet. Kapitel 2 fasst den aktuellen Forschungsstand zusammen. Bisherige Untersuchungsergebnisse zum Themenfeld Manager und deren Ehen sowie auch der Ehestabilitätsforschung werden hier vorgestellt und auf ihre Relevanz hin befragt. Ziel ist es, bereits gewonnene Ergebnisse nach ihrer Bedeutung für diese Arbeit zu bewerten und entsprechende Fragestellungen daraus abzuleiten. Kapitel 3 setzt sich mit theoretischen Ansätzen zur Erklärung von Ehestabilität auseinander. Vor dem Hintergrund verschiedener Handlungsmodelle stellt sich die Frage, ob die Stabilität von Managerehen das Ergebnis von wertorientiertem, zweckorientiertem oder gar traditionalem Handeln ist. Insbesondere werden hier der kultursoziologische Ansatz von Schreiber und die Rational Choice Theorie von Esser als maßgebliche theoretische Grundlage für den Leitfaden und die Auswertung des empirischen Materials vorgestellt und erläutert. Im Anschluss daran erklärt Kapitel 4 die Voraussetzungen und den Ablauf der Erhebung der Daten und beschreibt die Paare des vorliegenden Samples. Als Methode der Befragung wurde das Leitfadeninterview gewählt, welches begründet und von seiner Konzeption wie auch seinen Inhalten her beschrieben wird. Die Erläuterung zur Durchführung der Interviews und zur Methode der Analyse der Gespräche bilden den Abschluss dieses Kapitels. Kapitel 5 führt sodann in das vorliegende empirische Material ein. Es dient der Beschreibung der interviewten Paare in der Darstellungsform von insgesamt zehn Paarportraits. Ziel hierbei ist zum einen, die Beziehungswelt der Paare abzubilden, zum anderen zu zeigen, dass es bei allen Befragten prägnant wiederkehrende Strukturelemente innerhalb der Beziehung gibt. Diese geben einen ersten Hinweis auf die besonderen Stabilitätsfaktoren von Managerehen. Das folgende Kapitel 6 fasst die Erfolgsfaktoren ehelicher Stabilität der befragten Paare zusammen. Es kann aufzeigen, wie die Faktoren Heiratsmotivation, Rollenverteilung, Paarinteraktion, Statussymbole, soziales Umfeld, Beziehungswünsche und -visionen von den Paaren beschrieben werden und welche Rolle sie im Hinblick auf die Ehestabilität der Paare spielen. Hier wird deutlich dass es bei den Aussagen der Befragten große Strukturähnlichkeiten gibt, die es erlauben von einem Sondertypus "stabile Ehe" zu sprechen. In einer zusammenfassenden Beschreibung wird herausgestellt, welche Merkmale diesen besonderen Typus kennzeichnen und was ihn letztendlich charakterisiert. Managerehepaare leben in einer erfolgreichen Lebensform zusammen. Sie stellen einen Sondertypus unter den bisher bekannten Lebensformen dar. Das Schlusskapitel 7 fasst die Ergebnisse dieser Arbeit zusammen und pointiert sie in der Konstruktion einer managerspezifischen Lebensform, für die der Name LTA (Living Together Apart)20 gewählt wurde.
Die vorliegende Dissertation behandelt den Einsatz von Theorembeweise innerhalb der automatischen Fragebeantwortung (question answering - QA). QA-Systeme versuchen, natürlichsprachliche Fragen korrekt zu beantworten. Sie verwenden eine Vielzahl von Methoden aus der Computerlinguistik und der Wissensrepräsentation, um menschliche Sprache zu verarbeiten und die Antworten aus umfangreichen Wissensbasen zu beziehen. Diese Methoden sind allerdings meist syntaxbasiert und können kein implizites Wissen herleiten. Die Theorembeweiser der automatischen Deduktion dagegen können Folgerungsketten mit Millionen von Inferenzschritten durchführen. Die Integration eines Beweisers in ein QA-System eröffnet die Möglichkeit, aus den Fakten einer Wissensbasis neues Wissen herzuleiten und somit die Fragebeantwortung zu verbessern. Herausforderungen liegen in der Überwindung der gegensätzlichen Herangehensweisen von Fragebeantwortung und Deduktion: Während QA-Methoden normalerweise darauf abzielen, auch mit unvollständigen oder fehlerhaften Daten robust und schnell zu halbwegs annehmbaren Ergebnissen zu kommen, verwenden Theorembeweiser logische Kalküle zur Gewinnung exakter und beweisbarer Resultate. Letzterer Ansatz erweist sich sich aber als schwer vereinbar mit der Quantität und der Qualität der im QA-Bereich üblichen Wissensbestände.
Die Dissertation beschreibt Anpassungen von Theorembeweisern zur Überwindung dieser Hürden. Zentrales Beispiel ist der an der Universität Koblenz-Landau entwickelte Beweiser E-KRHyper, der im Rahmen dieser Dissertation in das QA-System LogAnswer integriert worden ist. Außerdem vorgestellt werden zusätzliche Erweiterungsmöglichkeiten auf der Implementierungs- und der Kalkülebene, die sich aus dem praktischen Einsatz bei der Fragebeantwortung ergeben haben, dabei aber generell für Theorembeweiser von Nutzen sein können. Über die reine Deduktionsverbesserung der QA hinausgehend beinhalten diese Erweiterungen auch die Anbindung externer Wissensquellen wie etwa Webdienste, mit denen der Beweiser während des Deduktionsvorgangs gezielt Wissenslücken schließen kann. Zudem ermöglicht dies die Nutzung externer Ontologien beispielsweise zur Abduktion. Evaluationsergebnisse aus eigenen Versuchsreihen und aus Wettbewerben demonstrieren die Effektivität der diskutierten Methoden.
Die Dissertation "Schreibprozesse in der Wikipedia" untersucht auf Basis einer linguistischen Textanalyse individuelle und gemeinschaftliche Schreibhandlungen in der Wikipedia. An Beispiel ausgewählter Artikel werden Artikelinitiationen, Handlungsmuster beim Er- und Überarbeiten der Texte, Prozesse des Planens, Gliederns und Bewertens sowie Kontroversen, Edit Wars und Vandalismus als grundlegende Aspekte des Schreibens in gemeinschaftlichen Online-Kontexten betrachtet. Dabei erscheinen vor allem Kontroversen als ein in der Schreibforschung bisher vernachlässigter Einflussfaktor, der nicht nur Auswirkungen auf die Schreibprozesse in der Wikipedia, sondern auch auf die gesamte Abbildung, Genese und vor allem Aushandlung von Wissen hat.
Etwa 50 % der Fläche Europas werden landwirtschaftlich genutzt. Dennoch gibt es nahezu keine Information ob Fledermäuse diese Flächen beispielsweise zur Nahrungsaufnahme nutzen. Aufgrund der limitierten Datenbasis mangelt es auch an Schutzkonzepten, die mögliche negative Effekte der landwirtschaftlichen Intensivierung auf die Fledermäuse und deren Nahrungsgrundlage ausgleichen könnten. Da die Exposition von Fledermäusen mit Pflanzenschutzmitteln bislang nicht thematisiert wurde, sind im europäischen Zulassungsverfahren für Pflanzenschutzmittel keine Risikoabschätzungen für Fledermäuse gefordert. Um für Fledermäuse die mögliche Exposition gegenüber Pflanzenschutzmitteln abschätzen zu können, sind Informationen über Vorkommen und Aktivität von Fledermäusen in landwirtschaftlich genutzten Flächen erforderlich. Die Erfassung von Fledermäusen auf einer Vielzahl von Flächen machte es notwendig sich im Vorfeld auf eine geeignete Methodik festzulegen. Die akustische Fledermauserfassung ist im Gegensatz zu deutlich zeitaufwändigeren Methoden wie Netzfang, Telemetrie oder direktes Beobachten die einzige logistisch durchführbare Methode. In der wissenschaftlichen Literatur werden jedoch bei vielen bisher durchgeführten akustischen Methoden Bedenken bezüglich der Berücksichtigung zeitlicher und räumlicher Varianz und der Eignung der verwendeten Detektorsysteme geäußert. Deshalb wurden verschiedene Methoden und Detektorsysteme verglichen und das parallele Beproben mit mehreren stationären und kalibrierten automatischen Aufnahmesystemen als die am besten geeignete Methode zur verlässlichen und vergleichbaren Fledermausaktivitäts-Erfassung befunden.
Mit dieser Methode wurden die Fledermaus-Diversitäten und Aktivitäten in verschiedenen landwirtschaftlichen Kulturen, Wiesen und Wäldern aufgenommen. Außerdem wurde gleichzeitig die Verfügbarkeit von fliegenden Insekten (potentieller Fledermausbeute) mit Licht- oder Klebefallen erfasst. In mehr als 500 Erfassungsnächten wurden circa 110,000 akustische Fledermaus-Rufsequenzen und nahezu 120,000 nachtaktive Insekten gesammelt. Insgesamt wurden 14 Fledermausarten nachgewiesen, darunter die im Gebiet sehr seltene und stark bedrohte Nordfledermaus (Eptesicus nilssonii) und die Mopsfledermaus (Barbastella barbastellum). Alle Arten wurden auch auf landwirtschaftlich genutzten Flächen detektiert.
Die Landwirtschaft im südlichen Rheinland-Pfalz ist durch Weinanbau geprägt. Die Untersuchungen zeigten, dass Weinberge aufgrund der geringen Verfügbarkeit an kleineren nachtaktiven Insekten für die meisten Fledermausarten nur eine geringe Qualität als Jagdgebiet haben. Ein weiterer paarweiser Vergleich von Weinbergen und benachbarten Regenrückhaltebecken bezüglich Nahrungsverfügbarkeit und Fledermausaktivität zeigte, dass Regenrückhaltebecken wichtige Nahrungshabitate im Weinbaugebiet darstellen. Das Anlegen dieser künstlichen Kleingewässer ist somit eine geeignete Methode um Nahrungshabitate für Fledermäuse zu schaffen und damit den negativen Effekten der konventionellen Landwirtschaft hinsichtlich der Nahrungsverfügbarkeit entgegenzuwirken. In anderen landwirtschaftlichen Kulturen wurden mit den parallel untersuchten Wald- und Wiesenhabitaten vergleichbar hohe Insektenvorkommen und Fledermausaktivitäten nachgewiesen. Besonders hohe Fledermausaktivitäten so wie eine besonders hohe Verfügbarkeit von geeigneten Nahrungstieren wurden in Apfelplantangen und Gemüsefeldern gemessen. Da diese beiden Kulturen hohem Pestizidaufwand unterliegen, kann eine Exposition von Fledermäusen gegenüber Pflanzenschutzmitteln dort nicht ausgeschlossen werden. Um das zurzeit verwendete Verfahren zur Risikoabschätzung von Pflanzenschutzmittel-anwendungen auf Vögel und Säuger auf Fledermäuse zu übertragen, wurden nach Applikation eines Insektizides dessen Rückstände auf Fledermaus-artspezifischen Beuteinsekten gemessen. Parallel dazu wurde die Fledermausaktivität erfasst. Die höchsten Pestizidrückstände wurden auf kronenbewohnenden Insekten und Spinnen nachgewiesen. Die darauf basierende Risikoabschätzung deutet auf ein Langzeitrisiko für alle Fledermausarten, die sich wenigstens zum Teil von kronenbewohnenden Arthropoden ernähren, hin. Das Vorkommen von Fledermäusen in landwirtschaftlichen Flächen, die einen Großteil der europäischen, aber auch der weltweiten Fläche ausmachen, führt je nach Kultur zur Exposition von Fledermäusen durch kontaminierte Nahrung oder zu einer Verringerung von Beuteinsekten. Bisher konzentrierten sich Schutzbemühungen auf die Sicherung von Winterquartieren und die Bereitstellung künstlicher Tagesquartiere. Potentielle Effekte von Pflanzenschutzmitteln auf Agrarflächen haben aber möglicherweise einen entscheidenden Einfluss auf die Populationsgrößen von Fledermausarten die in diesen Gebieten vorkommen. Aus diesem Grund sollten die Effekte von Pflanzenschutzmitteln auf Fledermäuse untersucht werden, insbesondere bei der Risikoabschätzung im Pflanzenschutzmittel-Zulassungsverfahren.
Weltweit sind ein Drittel bis die Hälfte der Flusskrebsarten von Populationsrückgang oder Aussterben bedroht. Neben einer Verschlechterung der Habitate, Umweltverschmutzung und anderen vom Menschen verursachten Umweltveränderungen stellen eingeschleppte exotische Arten und Krankheitserreger eine große Bedrohung für das Überleben europäischer Flusskrebsarten dar. Flusskrebse sind die größten Wirbellosen in limnischen Systemen und haben einen entsprechend großen Einfluss auf die Struktur der Nahrungsnetze. Das Verschwinden von Flusskrebsen aus einem Gewässer kann Nahrungsnetze verändern und somit dramatische Konsequenzen für ein Ökosystem zur Folge haben. Ein Ziel im modernen Artenschutz ist die Erhaltung der genetischen Vielfalt. Eine hohe genetische Vielfalt ist für das langfristige Überleben einer Art von Vorteil.
Das Hauptziel meiner Arbeit war es, die genetische Struktur des gefährdeten Edelkrebses (Astacus astacus) in seinem europäischen Verbreitungsgebiet zu untersuchen und die besonders schützenswerten genetische 'Hotspots' zu identifizieren (Teil 1 der Dissertation). Die größte Bedrohung für die Diversität europäischer Flusskrebsarten stellt der Krebspesterreger Aphanomyces astaci dar. Daher muss die Verbreitung des Krankheitserregers bei Schutzprogrammen beachtet werden.
Im zweiten Teil der Dissertation untersuchte ich neue Aspekte der Verbreitung von A. astaci. Die Ergebnisse dienen als Grundlage für zukünftige Artenschutzprogramme für Flusskrebse.
Im ersten Teil dieser Arbeit führte ich eine phylogeographische Analyse der Edelkrebse durch, um genetische 'Hotspots' zu identifizieren und die nacheiszeitliche Wiederbesiedlung Zentraleuropas durch diese Art zu rekonstruieren. Mit mitochondrialer DNA und nuklearen Mikrosatelliten-Markern ermittelte ich eine hohe genetische Vielfalt in Südosteuropa, die darauf hinweist, dass der Edelkrebs die kalten Klimaphasen des Pleistozäns in diesem Gebiet überdauerte (Appendix 1). Wegen der hohen genetischen Vielfalt ist Südosteuropa von besonderer Bedeutung für den Schutz des Edelkrebses. Die mitochondriale DNA-Analyse deutet auf eine gegabelte Kolonisierung vom unteren Donaueinzugsgebiet in a) das Einzugsgebiet der Nordsee und b) das Einzugsgebiet der Ostsee hin (Kapitel 2). Ein zweites, unabhängiges Refugium, welches im westlichen Balkan lokalisiert wurde, hat vermutlich nicht zur Besiedlung Mitteleuropas beigetragen. Außerdem stellte ich fest, dass die natürliche genetische Struktur teilweise überlagert ist, wahrscheinlich aufgrund des hohen menschlichen Einflusses auf die Verbreitung des Edelkrebses (bspw. künstliche Translokation). Im zweite Teil dieser Arbeit konnte ich mittels real-time-PCR ermitteln, dass neben den bekannten drei nordamerikanischen Flusskrebsarten auch Kalikokrebse (Orconectes immunis) Träger des Krebspesterregers sind (Kapitel 3). Des Weiteren habe ich den Krebspesterrreger in der unteren Donau in Rumänien an amerikanischen Kamberkrebsen (Orconectes limosus) und europäischen Galizierkrebsen (Astacus leptodactylus) nachweisen können (Kapitel 4). Die Ausbreitung der infizierten Kamberkrebse bis in die untere Donau stellt eine große Bedrohung für die Artenvielfalt in Südosteuropa dar und zeigt das hohe Invasionspotential der Kamberkrebse. Darüber hinaus stellte ich fest, dass auch einheimische Galizierkrebse im Donaudelta, etwa 970 km hinter der aktuellen Invasionsfront des Kamberkrebses, Träger von A. astaci sind (Kapitel 5). Diese Erkenntnis ist von besonderer Bedeutung, da die einheimischen Arten offenbar nicht an der Infektion leiden. Die Untersuchung koexistierender Populationen europäischer und amerikanischer Flusskrebse ergab, dass die Abwesenheit des Krebspesterregers in diesen Populationen die wahrscheinlichste Erklärung für die erfolgreiche Koexistenz in den untersuchten Gewässern in Mitteleuropa ist (Kapitel 6). Die Ergebnisse meiner Dissertation zeigen neue Aspekte, die von hoher Relevanz für den Schutz und Erhalt einheimischer Flusskrebsarten und deren genetischer Vielfalt sind: 1)Die genetische Diversität des Edelkrebses ist in Südosteuropa am höchsten. Dort überdauerten Edelkrebse die letzte Eiszeit in mindestens zwei unabhängigen Refugien. 2) Nicht alle amerikanischen Flusskrebspopulationen sind Träger der Krebspest und 3) nicht alle europäischen Flusskrebspopulationen sterben innerhalb kurzer Zeit an einer Infizierung mit dem Krebspesterreger. Um einheimische Flusskrebse und deren (genetische) Vielfalt langfristig zu erhalten, dürfen keine weiteren amerikanischen Flusskrebse in der Natur ausgesetzt werden. Das unbefugte Aussetzen wird jedoch erst zurückgehen, wenn der Handel mit exotischen Flusskrebsen verboten wird.
Agricultural pesticides, especially insecticides, are an integral part of modern farming. However, these may often leave their target ecosystems and cause adverse effects in non- target, especially freshwater ecosystems, leading to their deterioration. In this thesis, the focus will be on Insect Growth Regulators (IGRs) that can in many ways cause disruption of the endocrine system of invertebrates. Freshwater invertebrates play important ecological, economic and medical roles, and disruption of their endocrine systems may be crucial, considering the important role hormones play in the developmental and reproductive processes in organisms. Although Endocrine Disruption Chemicals (EDCs) can affect moulting, behaviour, morphology, sexual maturity, time to first brood, egg development time, brood size (fecundity), and sex determination in invertebrates, there is currently no agreement upon how to characterize and assess endocrine disruption (ED). Current traditional ecotoxicity tests for Ecological Risk Assessment (ERA) show limitations on generating data at the population level that may be relevant for the assessment of EDCs, which effects may be sublethal, latent and persist for several generations of species (transgenerational).
It is therefore the primary objective of this thesis to use a test method to investigate adverse effects of EDCs on endpoints concerning development and reproduction in freshwater invertebrates. The full life-cycle test over two generations that includes all sensitive life stages of C. riparius (a sexual reproductive organism) allows an assessment of its reproduction and should be suitable for the investigation of long-term toxicity of EDCs in freshwater invertebrates. C. riparius is appropriate for this purpose because of its short life cycle that enables the assessment of functional endpoints of the organism over several generations. Moreover, the chironomid life cycle consists of a complete metamorphosis controlled by a well-known endocrine mechanism and the endocrine system of insects has been most investigated in great detail among invertebrates. Hence, the full life-cycle test with C. riparius provides an approach to assess functional endpoints (e.g. reproduction, sex ratio) that are population-relevant as a useful amendment to the ERA of EDCs. In the laboratory, C. riparius was exposed to environmentally-relevant concentrations of the selected IGRs in either spiked water or spiked sediment scenario over two subsequent generations.
The results reported in this thesis revealed significant effects of the IGRs on the development and the reproduction of C. riparius with the second (F1) generation showing greater sensitivity. These findings indicated for the first time the suitability of multigenerational testing for various groups of EDCs and strongly suggested considering the full life-cycle of C. riparius as an appropriate test method for a better assessment of EDCs in the freshwater environment. In conclusion, this thesis helps to detect additional information that can be extrapolated at population level and, thus, might contribute to better protection of freshwater ecosystems against the risks of Endocrine Disrupting Chemicals (EDCs.) It may furthermore contribute to changes in the ERA process that are necessary for a real implementation of the new European chemical legislation, REACH (Registration, Evaluation Authorization and Restriction of Chemicals). Finally, significant interactions between temperature, chemical exposure and generation were reported for the first time and, may help predict impacts that may occur in the future, in the field, under predicted climate change scenarios.
Vor dem Hintergrund der Individualisierung von Lernwegen beschäftigt sich die Arbeit mit dem Konzept des Didaktischen Laien, welches begrifflich und inhaltlich bestimmt wird. Weiterhin werden methodische Ansätze gesammelt, wie Didaktische Laien in die Gestaltung schulischer Lehr-Lern-Prozesse eingebunden werden können. In einem letzten Teil werden diese Ansätze kategorienbasiert systematisch geordnet.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.
Das Lernen und Verstehen dynamischer Sachverhalte kann sowohl anhand von statischen Bildern als auch von Animationen erfolgen. Da die bisher vorliegenden Befunde keine eindeutige Überlegenheit der einen oder der anderen Repräsentationsform erkennen lassen, sind differenziertere Wirkungsanalysen erforderlich. Grundannahme der vorliegenden Dissertation war, dass beide Darstellungsformen unterschiedlich gut für den Aufbau dynamischer mentaler Modelle einerseits und den Aufbau dynamischer perzeptueller Repräsentationen andererseits geeignet sind. Es wurde erstens angenommen, dass dynamische mentale Modelle keine kontinuierlichen mentalen Simulationen ermöglichen, sondern aus einer Sequenz von diskreten prototypischen Prozess-Zuständen (sog. "key states") bestehen und deshalb besser anhand statischer Bilder dieser "key states" als anhand einer Animation konstruiert werden können. Zweitens wurde angenommen, dass perzeptuelle Repräsentationen dynamischer Sachverhalte aus dynamischen Schemata bestehen, die besser anhand einer Animation als anhand von statischen Bildern gebildet werden können. Als Indikator für die Qualität mentaler Modelle wurden Inferenzaufgaben verwendet, bei denen durch Manipulation dieser Modelle neue Informationen zu erschließen sind. Als Indikator für die Qualität dynamischer perzeptueller Repräsentationen wurden Leistungen bei der Kategorisierung von Bewegungsabläufen verwendet. Die erste Annahme wurde am Beispiel der synaptischen Informationsübertragung (nach einer Vorpilot- und Pilotstudie) in einer ersten Hauptstudie mit 61 Probanden überprüft.
Die Ergebnisse weisen darauf hin, dass die Hypothese eher bei Probanden mit höherem Vorwissen als bei solchen mit niedrigerem Vorwissen zutrifft. Die zweite Annahme wurde am Beispiel des Erkennens der Gangart von Pferden (nach einer Pilotstudie) in einer zweiten Hauptstudie mit 52 Probanden überprüft. Die Ergebnisse zeigten durchwegs Unterschiede in der erwarteten Richtung, die jedoch nicht oder nur marginal signifikant sind. Allerdings führten die Animationen zu einer hochsignifikant geringeren kognitiven Belastung als statische Bilder. Darüber hinaus zeigten sich signifikante Interaktionen mit den räumlichen Fähigkeiten: Probanden mit geringeren Fähigkeiten profitieren bei der Kategorisierung von Bewegungsabläufen bedeutsam mehr von Animationen als von statischen Bildern.
Die vorliegende Doktorarbeit verfolgt das Ziel, die Bevölkerungsentwicklung im Westerwaldkreis im Zeitraum von 1974 bis 2008 auf Kreis-, Verbandsgemeinde- und Gemeindeebene detailliert zu untersuchen und im Rahmen eines Handlungskonzeptes für ausgewählte Gemeinden geeignete Maßnahmen zur konkreten Gestaltung des Demographischen Wandels aufzuzeigen. Dies geschieht zunächst anhand einer umfassenden Analyse der Bevölkerungsdaten. Dazu zählt eine Einteilung des Untersuchungszeitraums in spezielle Phasen der Bevölkerungsentwicklung, welche durch die jährlichen Veränderungsraten des Bevölkerungsstandes des Westerwaldkreises charakterisiert werden. Anschließend wird ausführlicher auf wichtige Kennzahlen der Bevölkerungsentwicklung aus den Bereichen der natürlichen Bevölkerungsbewegung, der Bevölkerungsstruktur und der Wanderungen eingegangen mit der Intention, einerseits detaillierte Ergebnisse hervorzubringen, die im Rahmen bisheriger Untersuchungen nicht vorliegen und andererseits Grundlagen für die Ursachenforschung zu schaffen, die der Analyse der Bevölkerungsdaten folgt. Für diese Ursachenforschung werden fünf Gemeinden exemplarisch ausgewählt, die eine besonders positive bzw. negative Bevölkerungsentwicklung im Untersuchungszeitraum aufweisen. Integrale Bestandteile dieser Ursachenforschung sind, neben einer ausführlichen Darstellung der Bevölkerungsentwicklung der Gemeinden, Experteninterviews und eigene humangeographische Beobachtungen. Des Weiteren wird speziell für die drei ausgewählten Gemeinden mit negativer Bevölkerungsentwicklung eine Online-Umfrage unter Jugendlichen durchgeführt, um weitere Ursachen herauszufinden und erste zentrale Ansatzpunkte für das abschließende Handlungskonzept zu finden. Dieses Konzept verfolgt primär die Intention, den Demographischen Wandel in den drei Gemeinden in der Art und Weise zukünftig zu gestalten, dass seine negativen Folgen vermieden bzw. zumindest abgemildert werden. Dazu ist es notwendig, auf die spezifischen Situationen vor Ort einzugehen und die praktische Umsetzbarkeit möglicher Handlungsempfehlungen zu berücksichtigen, damit das Konzept Eingang in die kommunalpolitische Planung findet und somit nicht nur einen Beitrag zur bevölkerungsgeographischen Forschung darstellt, sondern auch einen Nutzen für die kommunale Handlungspraxis stiftet.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
In der hier vorliegenden Forschungsarbeit wurden die Auswirkungen der Bodenfeuchte und der Bodenart auf die ausgewählten Schaderreger Phytophthora infestans (Mont.) de Bary, Fusarium graminearum Schwabe bzw. F. culmorum (W.G. Smith) Saccardo und die Larven der wichtigsten Elateridenarten Agriotes lineatus Linnaeus, A. obscurus Linnaeus, A. sputator Linnaeus, A. sordidus Illiger sowie A. ustulatus Schaller (im Folgenden als Drahtwürmer zusammengefasst) untersucht. Ziel war die Integration von Bodenmodulen in Prognosemodelle für landwirtschaftliche und gartenbauliche Schaderreger, um die Terminierung von Befallskontrollen weiter zu optimieren, die Bekämpfungsnotwendigkeit festzustellen und somit eine Reduzierung vorbeugender Pflanzenschutzmittelanwendungen zu erreichen. Wegen des hohen Aufwandes zur Messung der Bodenfeuchte sowie ihrer kleinräumigen Variabilität fand dieser Parameter bisher in der Schaderregerprognose nur geringe Beachtung. Im Rahmen dieser Arbeit wurden die Möglichkeiten zur standortspezifischen Simulation der Bodenfeuchte überprüft. Dabei wurde das Bodenfeuchtesimulationsmodell SIMPEL (HÖRMANN 1998) an landwirtschaftliche Problemstellungen angepasst und die standortspezifische Simulation der Bodenfeuchte auf Grundlage der Niederschlagsdaten des Radermessnetzes des Deutschen Wetterdienstes (DWD) sowie interpolierten Wetterdaten (ZEUNER 2007) durchgeführt. Mit einer hochsignifikanten Korrelation zum Signifikanzniveau Alpha = 0,01 und mittleren Abweichungen der simulierten Bodenfeuchte von Feldmessungen von 3,8 % kann diese zuküftig schlagspezifisch berechnet und in den Schaderregermodellen berücksichtigt werden. Die Ergebnisse der Labor- und Freilandversuche und die durchgeführten Datenanalysen zeigten, dass der Einfluss von Bodenparametern auf die drei untersuchten Schaderreger unterschiedlich stark ausgeprägt ist. Während sich bei den Untersuchungen zum Einfluss der Bodenfeuchte auf P. infestans keine eindeutigen Korrelationen aufzeigen ließen, gab es deutliche Zusammenhänge zwischen der Bodenfeuchte bzw. Bodenart und dem Vorkommen von Drahtwürmern sowie von F. graminearum bzw. F. culmorum. Zur Prognose des Drahtwurmauftretens in den oberen 15 cm der Bodenschicht wurde das Modell SIMAGRIO-W entwickelt. In den durchgeführten Versuchen ergaben sich hochsignifikante Zusammenhänge der Bodenfeuchte und der Bodenart auf das Vorkommen der Drahtwürmer. Der Einfluss der Bodenart auf den Schaderreger F. graminearum bzw. F. culmorum wurde in das bestehende Modell FUS-OPT integriert. Eine Korrelation von aus der Luft gefangenen Sporen von F. graminearum mit dem simulierten Perithezienwachstum des veränderten Modells FUS-OPT ergab im Test nach PEARSON einen hochsignifikanten Zusammenhang. Die Ergebnisse dieser Arbeit zeigen, dass die Integration von Bodenfeuchte- und Bodenartmodulen in die Schaderregermodelle möglich ist. Die entwickelten bzw. modifizierten Modelle werden den Pflanzenschutzdiensten der Länder zukünftig zur praktischen Beratung über das Internetportal www.isip.de zur Verfügung stehen.
Diversität und Verbreitung von Schluchtwäldern (Tilio-Acerion) im Rheinischen Schiefergebirge
(2012)
Im Rahmen dieser Studie wurde die Diversität der Gefäßpflanzen von Edellaubmischwäldernrn im Rheinischen Schiefergebirge statistisch erfasst und dabei erstmalig deren Artenzusammensetzung anhand einer angewandten Standortanalyse soziologisch-floristisch beschrieben sowie deren Verbreitung im Einzugsbereich von unterer Mosel, unterer Lahn und dem Mittelrheingebiet zusammenfassend dargestellt.
Zudem war es Ziel dieser Untersuchung die Variabilität und Struktur der Artenzusammensetzung in Abhängigkeit von edaphischen und mikroklimatischen Umweltfaktoren auf Schiefer als anstehendem Gestein zu analysieren und diesbezüglich das Tilio-Acerion des Untersuchungsraums mit den bisher vorwiegend auf kalkhaltigem Untergrund untersuchten Edellaubmischwaldgesellschaften der übrigen deutschen Gebirge zu vergleichen. Mit Blick auf die Einstufung dieser Waldgesellschaft als "prioritären Lebensraum" innerhalb des NATURA 2000-Schutzgebietssystems und der an die FFH-Richtlinie gekoppelten Berichtspflicht von Rheinland-Pfalz, die alle 6 Jahre erfüllt werden muss,wurde die bisherige Einstufung der Ausprägung dieser Waldgesellschaft für die naturräumlichen Haupteinheiten im Untersuchungsraum revidiert. Dabei wurden auch anthropogene Gefährdungen untersucht und Schutzmaßnahmen für den Erhalt dieses in Mitteleuropa streng geschützten Fauna-Flora-Habitats diskutiert sowie Vorschläge zur Eingliederung von bisher unberücksichtigten Regionen in das NATURA 2000-Schutzgebietssystem abgegeben. Insgesamt wurden 191 Taxa in 1209 Aufnahmen erfasst und 29 Arten davon auf Grund ihrer Seltenheit oder Schutzwürdigkeit als bemerkenswert eingestuft. Des Weiteren wurden 3 Assoziationen und eine bisher noch unbekannte Festuca altissima-Tilia cordata-Gesellschaft beschrieben, wobei der überwiegende Teil der Aufnahmen dem Fraxino-Aceretum pseudoplatani zugeordnet wurde, das sich synsystematisch in weitere standörtlich bedingte Untereinheiten differenzieren lässt. Dabei hebt sich das Tilio-Acerion im Rheinischen Schiefergebirge gemeinsam mit Beständen weiterer silikatischer Gebirge von Edellaubmischwäldern auf karbonatischen Gebirgen in Deutschland durch säuretolerante Arten einer Polystichum aculeatum-Variante syntaxonomisch ab. Zudem konnte das in der Literatur bisher umstrittene Adoxo moschatellinae-Aceretum als eigene, dem Tilio-Acerion zugehörige Assoziation anhand von Kennarten wie dem im Untersuchungsraum hochsteten Polystichum aculeatum in der für die syntaxonomische Bewertung prioritären Krautschicht validiert werden. Regionale Unterschiede der Edellaubmischwälder sind im Untersuchungsgebiet anhand der dortigen Verbreitungsgrenzen submediterraner, (sub-)atlantischer und (sub-)kontinentaler Florenelemente erkennbar. Edaphische und mikroklimatische Faktoren haben sich als besonders einflussreich für diverse Ausprägungen der Schluchtwaldflora herausgestellt. Das Tilio-Acerion ist im Einzugsbereich der Mosel besonders artenreich, was lokal auch auf das Lahngebiet zutrifft. Der Straßen- und Wegebau wird als häufigste Gefährdung eingestuft, in den Tieflagen des oberen Mittelrhein- und Moselgebiets kommen Niederwald-Effekte in Form von haselreichen Degradationsstadien hinzu, in den Hochlagen sind Nadelwaldaufforstungen problematisch. Entsprechend wird gefordert derartige Maßnahmen sowie die Abholzung und Totholzentnahme in Edellaubmischwäldern zu vermeiden und diese sich stattdessen ihrer natürlichen Sukzession zu überlassen.
Die Studie hat gezeigt, dass die naturräumlichen Haupteinheiten Hunsrück, Westerwald, Taunus sowie das Mosel-, Lahn- und Mittelrheintal entgegen bisheriger Einstufung ein "Hauptvorkommen" an Schlucht- und Hangmischwäldern mit "guter Ausprägung" aufweisen.
Führungskommunikation ist in Organisationen und damit auch in der Organisation Schule von zentraler Bedeutung. Erstaunlicherweise weist die Forschung zur Schnittstelle von Führungs- und Kommunikationstheorien dennoch deutliche Defizite auf (Cohen, 2004). In jüngster Zeit belegen erste Untersuchungen die Verbindung zwischen Kommunikationskompetenz, Führung und weiteren organisationspsychologischen Konstrukten (z.B. Arbeitszufriedenheit) (u.a. Madlock, 2008; Payne, 2005).
In der Schulleitungsforschung hat die Kommunikationskompetenz bislang noch keine Beachtung gefunden. Diese Dissertation verfolgte daher zwei Ziele: Zum einen sollte ein theoretisch fundiertes Messinstrument entwickelt werden, um die Kommunikationskompetenz von schulischen Führungskräften reliabel und valide erheben zu können. Zum anderen sollte das Konstrukt Kommunikationskompetenz von schulischen Führungskräften in ein theoretisches Rahmenmodell eingebettet werden, das eine Brücke schlägt zwischen der Führungsforschung und der Kommunikationskompetenz-Forschung und damit Cohens Kritik eines unverbundenen Nebeneinanders beider Forschungsstränge begegnet. Das Rahmenmodell wurde auf der Basis eines allgemeinen Kommunikationsprozessmodells von Jablin und Kollegen (1994) sowie der Theorie der Führungsdyaden (LMX, Graen &amp; Uhl-Bien, 1995) entwickelt. Kommunikationskompetenz wird definiert als mehrdimensionales Konstrukt (z. B. Jablin &amp; Sias, 2001; Spitzberg &amp; Cupach, 1984). Die Instrumententwicklung und -validierung erfolgte in fünf Phasen. In Phase I wurden die Items zusammengestellt und mit Hilfe eines Itemratings durch Expert(inn)en inhaltlich validiert. Der so entstandene Itempool wurde in Phase II in einer Online-Befragung von Lehrkräften getestet. Mit exploratorischen Faktorenanalysen wurde die latente Struktur untersucht. Das resultierende 3-Faktoren-Modell mit den Subdimensionen Alterzentrismus, Kommunikationswissen und -bereitschaft sowie Selbstregulationsfähigkeit wurde in Phase III an einer weiteren Stichprobe kreuzvalidiert. Die konfirmatorischen Faktorenanalysen führten zu einer guten Modellpassung (strukturelle Validität). In Phase IV konnte mit Hilfe der Test-Retest-Reliabilität nachgewiesen werden, dass das Instrument zuverlässig misst. Die Einbettung in das nomologische Netzwerk verwandter Konstrukte wurde in Phase V durch die Berechnung von Korrelationen und Regressionen untersucht. Darüber hinaus konnte in dieser Phase nachgewiesen werden, dass das Instrument unabhängig vom Geschlecht der Schulleitungsperson gleichgut misst (Generalisierbarkeit) und dass mit Hilfe der Bewertung der Kommunikationskompetenz der Schulleitungsperson relevante Ergebniskriterien (Arbeitszufriedenheit, Commitment der Lehrkräfte) vorhergesagt werden können.
Als Ergebnis dieser Forschungsarbeit stehen ein Messinstrument und ein theoretisches Rahmenmodell zur Verfügung, die zum einen in der Praxis zur Analyse und Optimierung der Kommunikationskompetenz von schulischen Führungskräften eingesetzt werden können. Zum anderen bildet das Rahmenmodell die Grundlage für die Ableitung von Forschungsfragen, um die Bedeutung der Kommunikationskompe-tenz von Schulleitungspersonen für die Organisation Schule systematisch weiter zu untersuchen.
The first group that was revised within my study is Ochralea Clark, 1865 (Hazmi & Wagner 2010a). I have checked the type specimen of most species that were originally described in Ochralea and there is no doubt that this genus is clearly distinct from Monolepta. Weise (1924) has synonymised Galeruca nigripes (Olivier, 1808) with O. nigricornis Clark, 1865 and the valid name of the species is O. nigripes (Olivier, 1808). Out of ten species originally described in this genus, only this species remain valid and O. pectoralis is a new synonym of O. nigripes. Additionally, Monolepta wangkliana Mohamedsaid, 2000 is very closely related to O. nigripes and need to be transferred to Ochralea. The second genus where the revision is still published is Arcastes Baly, 1865 (Hazmi & Wagner 2010b). I have checked the genitalic characters of A. biplagiata, and most of the type species of other Arcastes. Arcastes biplagiata possesses a peculiar shape of the median lobe and asymmetrically arranged endophallic structures. These peculiar characters are very useful to delimit this genus from the others. Therefore, only three valid species remain in Arcastes, while two new synonyms are found and fourrnother species need to be transferred to other genera. While checking the genitalic characteristics of type species of Arcastes sanguinea, thernmedian lobe as well as the spermatheca of this species possesses strong differences to A. biplagiata. The species was redescribed and transferred in a monotypic new genus Rubrarcastes Hazmi & Wagner, 2010c. The fourth genus that was already revised is Neolepta Jacoby, 1884. It was originally described on base of only two species by that time, N. biplagiata and N. fulvipennis. Jacoby has not designated a type species of the genus, and Maulik (1936) did it later, with the designation of N. biplagiata. Jacoby in his original description has only commented that Neolepta is very close and similar to Monolepta Chevrolat, 1837 and Candezea Chapuis, 1879. Subsequent authors have described further eight species, and transferred one species from Luperodes to it, summing up the total number of eleven described species in Neolepta. I have checked the genitalic characters of the type, N. biplagiata and have found out that the median lobe is not incised apically and stronger sclerotised ventral carinae with an apical hook close to the apex occur. Out of all described species, only two are closely related to the genero-type, N. sumatrensis (Jacoby, 1884) new combination and N. quadriplagiata Jacoby, 1886 that will remain in this group after the revision. All other species need to be transferred to other genera, including the newly described Paraneolepta and Orthoneolepta. The last distinct paper of this thesis presented the results on Monolepta Chevrolat, 1837. The massive number of Monolepta from the entire Oriental Region, with about 260 described species names is a more long-life project and not practicable within a PhD-study. Thus I have focused on the species of Monolepta known from the Sundaland area in this work. A comprehensive revision including the study of the primary types of the described species, has never been done for Monolepta from this sub-region, while new species have also been described in the last decade (e. g. Mohamedsaid 1993, 1997, 1998, 1999, 2000a,b, 2001, 2002, 2005).
On base of the most current species lists of Mohamedsaid (2001, 2004, 2005) and Kimoto (1990), the number of valid species described from this region is about 72. After my revision, only thirteen valid species can remain in Monolepta in the sense of the generotype M. bioculata (Wagner 2007), while seven species have been found as new synonyms, three have been already transferred to other genera and further 49 species need to be transferred to other genera.
Problembewältigung stellt eine essentielle (kognitive) Aktivität im alltäglichen Leben, wie auch im Berufsleben, dar. Bereits in der Grundschule wird diese Fähigkeit, z.B. bei der Lösung von mathematischen Textaufgaben, gefordert und gefördert. Trotzdem bereitet dies Schülern verschiedener Klassenstufen nach wie vor große Schwierigkeiten. Das Lösen von Textaufgaben erfordert eine Vielzahl kognitiver Operationen. Dies ist besonders dann der Fall, wenn es sich bei den Aufgaben nicht um Routineaufgaben handelt. Für die Bearbeitung von Textaufgaben können Schüler auf verschiedene Repräsentationen zurückgreifen, wobei sowohl interne und externe als auch depiktionale (abbildende) und deskriptionale (beschreibende) unterschieden werden können. Da bisher kaum empirische Forschungsarbeiten zum Umgang von Schülern mit problemhaltigen Textaufgaben vorliegen, und darüber hinaus sehr wenig über die selbstgenerierten Repräsentationen bei der Bearbeitung von Textaufgaben bekannt ist, ist die vorliegende Arbeit z.T. explorativ angelegt. Im Fokus stehen die spontanen und individuellen Lösungsprozesse von Schülern verschiedener Klassenstufen bei der Bearbeitung von problemhaltigen Textaufgaben. Dabei wurde vorrangig untersucht, auf welche Repräsentationsformen die Schüler bei ihren Lösungsprozessen zurückgreifen.
Insgesamt 268 Schüler verschiedener Klassenstufen (Grundschüler der 3. und 4. Klasse; Gymnasiasten der 6. und 9. Klasse) wurden in Einzeluntersuchungen gebeten, jeweils fünf problemhaltige Textaufgaben zu lösen. Diese wurden ursprünglich im Hinblick auf die Primarstufe entwickelt, scheinen jedoch auch für Schüler höherer Klassenstufen ihren anspruchsvollen Charakter nicht zu verlieren. Für die Aufgabenlösungen standen den einzelnen Schülern verschiedene Materialien zur Verfügung. Von Seiten der Versuchsleitung wurden keinerlei Hilfestellungen gegeben. Nach jeder Aufgabe wurden die Schüler zu ihren Vorgehensweisen mittels halbstrukturiertem Interview befragt. Das individuelle Vorgehen wurde durch Videoaufzeichnungen festgehalten.
Das gewonnene Videomaterial wurde durch drei geschulte Beobachter anhand eines selbstentwickelten Kodiersystems quantifiziert und schließlich statistisch ausgewertet.
Allgemein kann gesagt werden, dass alle Schüler Schwierigkeiten bei der Bearbeitung der fünf Textaufgaben aufwiesen. So gab es nicht einen Schüler, der alle fünf Aufgaben richtig lösen konnte. Trotzdem nahm die Anzahl der richtigen Lösungen mit höherer Klassenstufe signifikant zu. In diesem Zusammenhang ergaben sich jedoch unterschiedlich starke Zuwächse in Abhängigkeit von der jeweiligen Aufgabe und ihren Anforderungen.
Hinsichtlich der selbstgenerierten Repräsentationsformen ergaben sich u.a. folgende Ergebnisse. Erstens operierten die Grundschüler im Vergleich zu den Gymnasiasten sehr stark intern deskriptional, d.h., sie waren versucht, die gesamten Aufgaben durch Kopfrechnen zu bewältigen. Zweitens griffen die Schüler mit höherer Klassenstufe eher auf verschiedene Repräsentationsformen zurück, was für einen flexibleren Umgang mit ihnen spricht. Drittens scheint die Verwendung multipler Repräsentationen bei der Konstruktion des mathematischen Modells nicht per se zu einer richtigen Lösung zu führen. Aber sie verhindert, unabhängig von der Klassenstufe, eine gänzlich falsche Aufgabenbearbeitung bzw. -lösung. Im Bezug auf das Lösungsvorgehen konnte kein eindeutiges Ergebnis erzielt werden. Hier scheinen je nach Aufgabenanforderungen (und wahrscheinlich auch Personenfähigkeiten) ganzheitliche und zergliedernde Vorgehensweisen unterschiedlich gut geeignet zu sein im Hinblick auf den Lösungserfolg. Nachfolgende Untersuchungen müssen die hier berichteten Ergebnisse überprüfen. Die Ergebnisse legen jedoch nahe, dass hinsichtlich des Umgangs von Schülern mit anspruchsvollen Textaufgaben nach wie vor Handlungsbedarf bestehen sollte. Gerade der im Mathematikunterricht gelegte Schwerpunkt auf deskriptionale Repräsentationsformen im Sinne von Rechnungen und Gleichungen scheint bedenklich. Vielmehr sollte eine Schulkultur etabliert werden, die den flexiblen Einsatz von verschiedenen Repräsentationsformen, und hier im Besonderen die Verwendung depiktionaler Repräsentationen, als legitim und durchaus notwendig erachtet.
Wildschweine gehören zu den meist verbreiteten Huftieren der Welt. Die Wildschweinpopulation in Deutschland stieg in den letzten drei Jahrzehnten deutlich an. Heutzutage führt deren hohe Dichte zu Schäden auf landwirtschaftlichen Flächen und spielt eine wichtige Rolle bei der Ausbreitung von Krankheiten. Für ein effektives Wildschwein Management sind Informationen über absolute Populationszahlen von höchster Bedeutung. Es existieren verschiedene traditionelle Methoden wie z.B. die direkte Beobachtung der Tiere, das Zählen ihrer Losungen oder die Auswertung der Statistiken zu Jagderträgen, die nur relative Schätzungen oder Populationstrends liefern. Absolute Populationszahlen könnte der Fang-Markier-Wiederfang Ansatz hervorbringen. Nichtsdestotrotz ist das Fangen von Wildschweinen schwer zu realisieren und kostenaufwendig in Bezug auf die hierzu benötigten Arbeitskräfte und den Feldarbeitsaufwand.
Weiterhin sind die Fangwahrscheinlichkeiten heterogen aufgrund der Verhaltensvariabilitaet der Individuen, die durch Alter, Geschlecht und Erfahrung der Tiere bedingt ist. Nicht-invasive genetische Verfahren sind vielversprechender gegenüber den traditionellen Methoden der Populationsgrößenschätzung speziell für Wildschweine. Denn zum Einen reduzieren diese Methoden den Stressfaktor der Tiere und senken Fangfehler und zum Anderen erhöhen sie die Zahl indirekter Beobachtungen. Kot eignet sich sehr gut als DNS-Quelle für die Wildschwein Genotypisierung, da dieser eine nahezu gleiche Erfassungswahrscheinlichkeit für alle Tiere gewährleistet. Nichtsdestotrotz bringt das Arbeiten mit Kot Schwierigkeiten mit sich, die sich in in einer geringen DNS Qualität und Quantität oder Genotypisierungsfehlern äußern. Das Hauptziel der vorliegenden Arbeit war die Entwicklung einer zuverlässigen, kostengünstigen, reproduzierbaren und praktikablen Methode zur Genotypisierung von Wildschweinen. Diese Methode sollte einen zuverlässigen Genotypendatensatz liefern, der aus der Genotypisierung gesammelter Kotproben stammte. Individuelle Identifikation bildet die Basis für einen anzuwendenden Fang-Markierung-Wiederfang Ansatz. Da es bisher keine vergleichbaren Untersuchungen zu Populationsschätzungen von Wildscheinen gibt, fehlen Referenzdaten zum nicht-invasiven Ansatz. Daher wurden verschiedene Versuche zur Reduzierung und Quantifizierung der Genotypisierungsfehlerraten (GFR) getestet, verglichen und evaluiert. Um die Amplifizierungsrate zu erhöhen wurden Hälterungs- und DNS-Isolationsverfahre optimiert. Ein Schritt für Schritt Ansatz zur Bestimmung der minimal erforderlichen Anzahl von Mikrosatelliten Marker wurde entwickelt, welcher einen Test mit nahverwandten Individuen (Mütter und deren Föten) beinhaltete, um sogar diese voneinander zu unterscheiden. Ein so genanntes Multitube-Verfahren wurden angewendet um die GFR zu reduzieren. Die Quantifizierung von GFR aus erhobenen Datensätzen wurde evaluiert indem verschiedene Methoden zur GFR-Bestimmung getestet und miteinander verglichen wurden, hierbei ergaben sich GFR zwischen 0% bis 54%. Als Konsequenz dessen wurden die Kriterien für das Multitube-Verfahren verschärft, indem die Anzahl der Wiederholungen von homozygoten Proben erhöht wurde. Eine zusätzliche Validierung in Form eines Blindtests wurde etabliert, um die Zuverlässigkeit der Genotypisierung und Fehlerkorrekturen zu bekräftigen.
Abschließend wurde ein strikter und praktikabler Verfahrenvorschlag entwickelt, beginnend beim Sammeln der Kotproben und endend mit dem Erhalt eines zuverlässigen Datensatzes mit Genotypen einzelner Proben.
Die Ergebnisse der hier präsentierten Methode aus zwei Beprobungen 2006 und 2007 in einem 4000 ha großen Areal im Pfälzer Wald führte zu ungenauen Schätzungen mit hohen Konfidenzintervallen (KI). So lag die geschätzte Populationsgrösse in der Beprobung 2006 bei 215 Individuen, was 156-314 (KI 95%) Individuen entspricht. Die Populationsschätzung 2007 brachte 415 Individuen hervor, was 315-561 (KI 95%) Individuen entspricht. Dies ließ auf zu niedrige Stichproben (2006 betrug n = 141, 2007 n = 326), zu wenig erfolgreich analysierte Proben (2006 n = 89, 2007 n = 156) und/ oder zu wenig Wiederfänge (2006 n = 12, 2007 n = 24) schließen. Zudem ergaben die Schätzungen sogar deutlich höhere Populationszahlen als zuvor durch Jagderträge vermutet wurde, was auf eine uneffektive Bejagungsstrategie in dem Studienareal hindeutet. Für den zukünftigen Ausblick ist es unabdingbar die Stichprobenzahl deutlich zu erhöhen um die Validität und Reliabiltät der Populationsschätzungen zu gewährleisten, da diese für das Wildmanagement und die epidemiologischen Lösungsstrategien von höchster Bedeutung sind. Nichtsdestotrotz konnte die im Rahmen dieser Arbeit entwickelte Methode zur individuellen Wildschwein Genotypisierung erfolgreich etabliert werden. Die daraus resultierenden Datensets zur Modellierung von Populationschätzungen sind zuverlässig und weisen eine ausreichend geringe reale Genotypisierungsfehlerrate auf.
In einem randomisierten Kontrollgruppen-Design wurde die Wirksamkeit zweier ambulanter psychologischer Tinnitus-Therapien (12-wöchige psychologische Tinnitus-Therapie (PTT) sowie 4-wöchige psychologische Kurzzeit-Tinnitus-Therapie (KPTT)) miteinander verglichen. Die Überprüfung der Wirksamkeit erfolgte mittels folgender Parameter: Tinnitusbelastung, subjektive Lautheit, Dauer der Tinnituswahrnehmung, Tinnitusbelästigung, Copingfähigkeit, Stimmung, Depressivität, Schlaf und Kontrollüberzeugung. An der Studie nahmen 90 Patienten mit chronischem Tinnitus teil, die zufällig der PTT, der KPTT oder einer Wartekontrollgruppe (WKG) zugeteilt wurden. Die Datenerhebung erfolgte zu drei Messzeitpunkten: vor Therapiebeginn, nach Therapieende sowie 6 Monate nach Therapieende. Beide Interventionen führen zur signifikanten Reduktion der Tinnitusbelastung, der subjektiv wahrgenommenen Lautheit, der Dauer der Tinnituswahrnehmung und der Tinnitusbelästigung. Weiterhin führen beide Therapien zum Erlernen und zur Anwendung von effektiven Copingstrategien und damit auch zur Erhöhung der Kontrollüberzeugung. Alle berichteten Verbesserungen bleiben auch 6 Monate nach dem Therapieende stabil. Nachdem in der WKG nach 4 und nach 12 Wochen keine signifikanten Veränderungen beobachtet werden konnten, sind die Veränderungen in den Therapiegruppen in den o.g. Variablen als Therapieeffekte zu sehen. Keine der beiden Interventionen führt zu einer signifikanten Veränderung des Schlafes und der Stimmung. Als einziger signifikanter Prädiktor des Therapieerfolgs hat sich die Tinnitusdauer herausgestellt. Während die PTT unabhängig von der Tinnitusdauer zu einer Reduktion der Tinnitusbelastung führt, ist die KPTT umso wirksamer, je kürzer die Tinnitusdauer ist. Das Vorhandensein einer komorbiden psychischen Störung, die Ausgangsbelastung sowie die Veränderungsbereitschaft beeinflussen die Therapiewirksamkeit nicht. Da sich diese beiden ambulanten psychologischen Tinnitus-Therapien nicht in ihrer Wirksamkeit und in ihren langfristigen Auswirkungen voneinander unterscheiden, kann resümiert werden, dass beide gut für eine ambulante psychologische Behandlung von Patienten mit chronischem Tinnitus geeignet sind. Die kürzere KPTT ist jedoch aufgrund des niedrigeren Zeit- und Kostenaufwandes als effizienter zu bewerten.
Forschungsergebnisse zum Männerchorwesen Deutschlands im 19. Jahrhundert belegen dessen gesellschaftliche und politische Relevanz. Das so genannte Sängerwesen leistete demnach einen wesentlichen Beitrag zur Nationsbildung in Deutschland, da die Sänger durch ihren Gesang sowie durch ihre Aktivitäten im Verein und in der Öffentlichkeit zur inneren Einigung der Bevölkerung beitrugen und somit halfen, eine einheitliche Nation zu formen. Im Gegensatz dazu gab es bislang kaum Erkenntnisse über die gesellschaftlichen und politischen Hintergründe des Männerchorwesens der Pfalz im gleichen Zeitraum. Um diese Lücke zu schließen, wurde mit der vorliegenden Arbeit die Geschichte des Männerchorwesens der Pfalz erforscht, insbesondere hinsichtlich seiner Bedeutung für die Nationsbildung Deutschlands. Der Untersuchungszeitraum erstreckt sich von 1816, dem Jahr, in dem die Pfalz zum bayerischen Staatsgebiet wurde, bis zur Gründung des Deutschen Reiches im Jahre 1871.
Zunächst wird die Entwicklung des pfälzischen Sängerwesens bezüglich der Zahl der gegründeten Vereinen in den einzelnen Jahren und Orten sowie bezüglich des Feierns lokaler und regionaler Sängerfeste im Überblick und im Vergleich zum Musikvereinswesen der Pfalz im gleichen Zeitraum dargestellt. Dieser Betrachtung des pfälzischen Männerchorwesens als Ganzem folgt die Untersuchung seiner Einzelteile, der Personen und Ereignisse innerhalb einzelner Sängervereine und innerhalb bestimmter Zeitabschnitte, vor dem Hintergrund der jeweiligen politischen und gesellschaftlichen Situation. Bedeutend sind in diesem Zusammenhang vor allem die Auswirkungen der politisch-gesellschaftlichen Großereignisse Hambacher Fest von 1832 sowie Revolution von 1848/49 auf die laienmusikalischen Vereinskulturen.
Schließlich werden die einzelnen Phänomene und die Gesamtentwicklung aufeineander bezogen. Der Anhang der Forschungsarbeit beinhaltet, neben Auszügen aus den Protokollbüchern des "Cäcilienverein-Liedertafel Dürkheim" sowie Plakaten von pfälzischen Musik- und Sängerfesten der 1840er Jahre, Übersichtstabellen mit Informationen zu den Pfälzischen Musikfesten des 19. Jahrhunderts sowie zu den im Untersuchungszeitraum gegründeten Sängervereinen, außerdem Kartenmaterial zur räumlichen Verbreitung der Vereine sowie Notenmaterial zum freimaurerischen "Weihelied" des Kaiserslauterer Seminarlehrers Philipp Walter.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Die neuen Medien gewinnen im gesellschaftlichen Leben immer mehr an Bedeutung. Dieser Prozess beeinflusst zunehmend auch die Entwicklungen im schulischen Bereich. Durch die Eingliederung von Computern in den Unterricht entstehen neue Möglichkeiten hinsichtlich der Gestaltung von Lernprozessen. In diesem Zusammenhang ist es von großer Bedeutung, entsprechende Computeranwendungen für die jeweilige Lerngruppe aufzubereiten, sodass ein begründeter Einsatz im Rahmen des Unterrichts erfolgen kann. Zudem erfordert die effiziente Einbindung von Computern eine Veränderung der räumlichen Organisation, der methodischen Konzeption des unterrichtlichen Agierens, sowie einen Wandel im Rollenverständnis der Lehrpersonen. Diese Reflexion und Umorientierung ist die Grundlage dafür, dass neue Medien gewinnbringend für Lehr- und Lernprozesse genutzt werden können.
Ein erstes Ziel der vorliegenden Arbeit ist es - anhand einer landesweiten Befragung - die Situation bezüglich der Verwendung von Computern im Rahmen des Geometrieunterrichts der Grundschule empirisch zu überprüfen. Die Auswertung liefert Auskunft darüber, wie intensiv der Computer im Lernprozess eingesetzt wird und bildet jene Faktoren ab, die ausschlaggebend sind, dass Computer im Geometrieunterricht verwendet werden. Die Ergebnisse sind eine empirische Grundlage für die Entwicklung einer computergestützen Lernumgebung namens "Geolizi" (zweites Ziel der Arbeit). Im Rahmen dieser Lernumgebung sollen die Schüler/innen mittels Computer die Themen "Spiegelbildliche Figuren" und "Konstruktionen von Rechteck und Quadrat" selbstständig er- bzw. bearbeiten. Dabei stehen den Kindern "hands-on" Medien, traditionelle Zeichengeräte sowie interaktive Arbeitsblätter zur Verfügung. Der Computer (samt entsprechender Anwendungen) übernimmt in diesem Lernprozess unterschiedliche Funktionen. Die Erprobung der Lernumgebung erfolgt in mehreren Klassen der Grundstufe II im Rahmen einer formativen und summativen Evaluierung.
Anhand der Schüler/innenfragebögen wird die Benutzerfreundlichkeit der einzelnen Elemente untersucht. Auf der Grundlage eines Prä-Post-Untersuchungsdesigns wird versucht, mögliche Veränderungen der Einstellungen im Bezug auf den Einsatz von Computern im Geometrieunterricht bei den beteiligten Lehrerinnen / Lehrern herauszufinden.
Die Ergebnisse der Erprobungsphasen sowie die Auswertung der Fragebögen lassen die begründete Vermutung zu, dass durch die Verwendung der multimedialen Lernumgebung "Geolizi" eine Steigerung der Nutzungsintensität von Computern im Geometrieunterricht die Folge sein könnte. Insgesamt stellt die entwickelte Lernumgebung eine interessante Möglichkeit dar, Computer im Rahmen des Geometrieunterrichts der Grundschule einzusetzen und so einen wichtigen Beitrag zu einem selbstständigen, individualisierten Lernprozess zu leisten.
Die vorliegende Dissertation beschäftigt sich mit der Messung subjektiver Filmbewertungskriterien (SMEC). SMEC können definiert werden als Standards, die Zuschauer heranziehen, um Eigenschaften von Filmen (z. B. Story, Kamera) zu bewerten. Basierend auf Annahmen aus der Social Cognition Forschung können SMEC als mentale Repräsentationen von - oder Einstellungen gegenüber - spezifischen Filmeigenschaften verstanden werden und spielen eine wichtige Rolle bei der kognitiven und affektiven Informationsverarbeitung und Bewertung von Filmen. In fünf Phasen wurden Skalen zur Erfassung von SMEC entwickelt und validiert. In Phase I wurden mithilfe von offenen Fragen Beschreibungen für Filmbewertungskriterien gesammelt, mittels modifizierter Struktur-Lege-Technik inhaltsvalidiert und schließlich Itemformulierungen abgeleitet. In Phase II wurden die Items reduziert und faktorenanalytisch auf ihre latente Struktur untersucht. Das resultierende 8-Faktoren-Modell wurde anschließend in Phase III mithilfe weiterer Stichproben und konfirmatorischer Verfahren kreuzvalidiert. Latent State-Trait Analysen in Phase IV zeigten, dass es sich um reliable und relativ stabile Dimensionen handelt. Schließlich wurde in Phase V das nomologische Netzwerk der SMEC und verwandter Konstrukte (z. B. Filmbewertungen) untersucht. Insgesamt kann festgestellt werden, dass das SMEC-Konzept einen geeigneten Rahmen bietet, um Forschungsfragen zur Rolle von Filmbewertungskriterien und Bewertungsprozessen bei der Selektion, Rezeption und Wirkung von Filmen zu formulieren und dass die SMEC-Skalen ein geeignetes reliables und valides Instrument zur Untersuchung solcher Fragen darstellen.
Diese Arbeit thematisiert die theoretische Grundlegung, Entwicklung und Validierung eines Instrumentariums, das Lehramtsstudierenden zum Abschluss der Bachelorphase einen Einblick in die eigene Kompetenzentwicklung ermöglicht sowie erste "Praxiserfahrungen" aufarbeiten hilft. Hierdurch wird die Ausbildung der Reflexionsfähigkeit der Studierenden unterstützt. Diese beiden Aspekte und zwei darauf ausgerichteten Instrumente sind die Grundlage für ein Online-Self-Assessment (Tour 3-RLP), das in Anlehnung an das Carreer-Counselling for Teachers (CCT, vgl. cct-germany.de) konzipiert und auf die Kompetenzerfassung ausgerichtet ist. Die Instrumente dienen der Förderung der Professionalisierung der Studierenden und entsprechen dem Anliegen der Reform der Lehrerausbildung in Rheinland-Pfalz. Dieses Reformkonzept, die KMK-Standards für die Lehrerbildung (Bildungswissenschaften), der rheinland-pfälzische "Orientierungsrahmen Schulqualität" sowie die Handreichungen und Manuale zur Durchführung der Vertiefenden Praktika in der Lehrerausbildung bilden die rationale Basis zur Itemgenerierung und Konstruktion der Instrumente.
Der erste Teil dieser Schrift widmet sich den theoretischen Grundlagen zur Erstellung des Instrumentariums für die "CCT-Tour 3-RLP" mit dem Hintergrund der Professionalisierung im Lehrberuf. Ihre historischen Dimensionen und die damit verbundenen Ansätze der Lehrerbildungsforschung stellen ein umfassendes Wissensgebiet dar, das von der "Lehrerpersönlichkeit" bis hin zur Implementation von Standards für die Lehrerausbildung sowie der Outputorientierung reicht. War es in den 60er und 70er Jahren noch der Persönlichkeitsansatz, der in der Lehrerbildungsforschung eine große Rolle spielte, so sind es nun die Ansätze zur Expertiseentwicklung und Modelle der Kompetenzentwicklung, die im Fokus des wissenschaftlichen Interesses stehen.
Im Theorieteil der Dissertationsschrift werden daher sukzessive die diesem momentanen Trend vorausgehenden Paradigmen beschrieben. Im Kontext dieser Erörterungen wird auf das Konzept der Lehrerselbstwirksamkeit eingegangen, es wird ferner intensiv auf topologische und typologische Modelle der Professionalisierung Bezug genommen. Ferner werden die Praxiselemente der Lehrerausbildung und deren Beitrag zur Professionalisierung angehender Lehrkräfte beleuchtet. Professionell reflektierte Praxis, so die Annahme, bildet eine Grundlage zur Expertiseentwicklung. Gerade deshalb ist es unumgänglich, die Transferierbarkeit von Theoriewissen in Praxishandeln zu hinterfragen und die hierzu vorliegenden Erkenntnisse aufzuarbeiten. Eine verbindende Theorie zwischen der Integrationshypothese (Theoriewissen kann in Praxishandeln "übertragen" werden) und der Differenzhypothese (Lehrerkönnen stellt eine eigene, vom Theoriewissen unabhängige Art von Wissensverwendung dar) stellt die kognitive Psychologie, und hier wiederum die Expertiseforschung, bereit. Sie kann annähernd erklären, wie propositionales Wissen (Regelwissen) und die über das berufliche Handeln über kategoriale Wahrnehmung und die Ausbildung von Schemata erzeugten Wissenskomponenten zum professionellen Agieren führen (können). Endpunkt des theoretischen Diskurses ist die Bilanzierung der vorliegenden Erkenntnisse, deren Verbindung mit den Anliegen der Reform der Lehrerbildung in Rheinland-Pfalz und die Rolle, welche die Tour 3-RLP in diesem Kontext spielen kann. rnIm empirischen Teil dieser Arbeit werden die Schritte zur Validierung des Instrumentariums erörtert.
Einführend erfolgt die Darstellung der Professionsstandards der PH Zentralschweiz, die als Modell zum Aufbau eines kompetenzstufenorientierten Instrumentariums gelten können. Eine Analyse von verschiedenen Methoden zur Ermittlung von Cut-Scores mit dem Ziel, Kompetenzstufen zu entwickeln, bildet ebenfalls eine Grundlage zum Aufbau geeigneter Verfahrensweisen innerhalb des eigenen Anliegens. Aus den Ergebnissen der beiden Validierungsstudien Studie lässt sich eine nach psychometrischen Kriterien abgesicherte Skalenstruktur für das Instrument zur Erfassung des Kompetenzstands ableiten und ein Tool aufbauen, das die Erfahrungsverarbeitung der Studierenden fokussiert und der Selbstreflexion dienen soll.
Kernanliegen beider Instrumentarien ist die Förderung der Studierenden, die mit dem Online-Self-Assessment über geeignete Rückmeldestrukturen und daran gekoppelte Handlungsempfehlungen realisiert wird. Der Ausblick widmet sich der Frage, ob eine kompetenzmodellierende oder auf Standards basierende Auseinandersetzung mit dem Thema Professionalisierung die einzige Möglichkeit darstellt, sich dem Thema der Kompetenzentenwicklung anzunähern. Die Rolle der Reflexion erweist sich im integrativen wie auch im differenziellen Ansatz zum Wissenstransfer und Kompetenzaufbau als das verbindende Element zwischen beiden Positionen.
Genetische Populationsstruktur europäischer Hyalodaphnia-Arten: Monopolisierung versus Genfluss
(2012)
Die genetische Populationsstruktur von Arten wird von verschiedenen Faktoren beeinflusst, z.B. vom Reproduktionsmodus. Ein spezieller Reproduktionsmodus ist die zyklische Parthenogenese, eine Abwechslung von Phasen asexueller und sexueller Reproduktion. Die klonale Diversität von zyklisch parthenogenetischen Zooplanktonorganismen wird durch die Größe der Dauerstadienbank im Sediment beeinflusst, d.h. durch die Anzahl der sexuell produzierten Dauereier die sich im Sediment akkumulieren. Weiterhin verringert klonale Erosion, ausgelöst durch stochastische und selektive Prozesse, die Diversität über die Zeit. Da zyklisch parthenogenetische Zooplanktonorganismen neue Habitate effektiv monopolisieren können, wurden die Auswirkungen von Genfluss als vernachlässigbar angenommen. Unter Monopolisierung wird die schnelle Vergrößerung der Population verstanden, was zu einem Vorteil für die ersten Ankömmlinge führt (priority-Effekt). Durch lokale Anpassung und das Aufbauen einer Dauerstadienbank wird Genfluss effektiv entgegen gewirkt, da später ankommende Genotypen sich nicht in der Population etablieren können. Das Ziel dieser Arbeit war die Evaluierung der Prozesse, die die populationsgenetische Struktur von zyklisch parthenogenetischen Zooplanktonorganismen beeinflussen, mit besonderem Fokus auf Monopolisierung und Genfluss. Als Organismen wurden Seenarten der Gattung Daphnia eingesetzt, für die zunächst 32 variable Mikrosatellitenmarker entwickelt wurden. Ein ausgewähltes Marker-Set von zwölf Mikrosatellitenmarkern wurde zusätzlich für die Art- und Hybriddetektion getestet. Mit diesem Marker-Set und einem zusätzlichen mitochondrialen DNA-Marker wurden Proben aus 44 europäischen Gewässern untersucht, die die Arten D. cucullata, D. galeata und D. longispina enthielten. Bei D. galeata sind viele Populationen durch eine geringe klonale Diversität charakterisiert, was darauf hindeutet, dass die Dauerstadienbank nur wenig zur klonalen Diversität beiträgt, wodurch die Effekte der klonalen Erosion sehr schnell detektiert werden. Die genetischen Muster zeigen weiterhin auf, dass rezente Expansion stattgefunden hat, die wahrscheinlich durch die anthropogene Veränderung limnischer Ökosysteme hervorgerufen und begünstigt wurde, wobei hier vor allem die Eutrophierung vieler europäischer Seen im Vordergrund steht. Bei D. longispina und D. cucullata wurde eine von D. galeata stark abweichende Populationsstruktur detektiert. Hohe genetische Differenzierung zwischen Populationen spricht für geringen Genfluss was im Einklang mit den Annahmen von Monopolisierung ist.
Weiterhin ist die klonale Diversität vieler Populationen sehr hoch und deutet somit einen großen Einfluss der Dauerstadienbank an, weshalb die Effekte der klonalen Erosion nicht oder nur gering detektiert wurden. Bei der Analyse der mitochondrialen DNA von D. longispina wurde ein Anstieg der Populationsgröße nach der letzten Eiszeit ermittelt, da die Entstehung vieler Gletscherseen, die ein ideales Habitat für D. longispina darstellen, zu einer Expansion dieser Art führte. Nicht nur die klonale Diversität der D. longispina-Populationen war hoch, sondern die genetische Diversität im Allgemeinen. Dies zeigt auf, dass während der Entstehung dieser Populationen Genfluss hoch gewesen sein muss. Um die Prozesse, die während der frühen Entwicklungsphase einer Population herrschen, besser beurteilen zu können, wurde eine experimentelle Studie durchgeführt, die den zeitlichen Vorteil von ankommenden Genotypen auf den Etablierungserfolg dieser Genotypen untersucht.
Es zeigte sich, dass früh ankommende Genotypen einen Vorteil in der Population haben. Bei ähnlicher Fitness war dieser Vorteil langfristig, aber Genotypen mit einer höheren Fitness dominierten die Population auf lange Sicht, unabhängig vom zeitlichen Vorteil den die einzelnen Genotypen zuvor hatten.rnZusammenfassend, die Ergebnisse dieser Arbeit zeigen, dass zusätzlich zu den bisher untersuchten Prozessen (lokale Anpassung, klonale Erosion und die Größe der Dauerstadienbank) auch Genfluss die Populationsstruktur zyklisch parthenogenetischer Zooplanktonorganismen effektiv beeinflussen kann. Zum Einen, während der Entstehung von Population können mehrere Genotypen zum Aufbau beitragen. Zum Anderen, bei starken Veränderungen der Umweltfaktoren kann Genfluss stark auf die Populationsstruktur wirken.
To assess the effect of organic compounds on the aquatic environment, organisms are typically exposed to toxicant solutions and the adverse effects observed are linked to the concentration in the surrounding media. As compounds generally need to be taken up into the organism and distributed to the respective target sites for the induction of effects, the internal exposure is postulated to best represent the observed effects.
The aim of this work is to contribute to an improved effect assessment of organic compounds by describing experimental and modelling methods to obtain information on the internal exposure of contaminants in organisms.
Chapter 2 details a protocol for the determination of bioconcentration parameter for uptake (k1) and elimination (k2) of organic compounds in zebrafish (Danio rerio) eggs. This enables the simulation of the internal exposure in zebrafish eggs from an ambient exposure concentration over time. The accumulated contaminant amount in zebrafish eggs was also determined, using a biomimetic extraction method. Different bioconc-entration estimation models for the determination of internal steady-state concentrat-ion of pharmaceutical compounds in fish to an environmental exposure are presented in Chapter 3. Bioconcentration factors were estimated from the compounds octanol: water partition coefficient (KOW) to determine the internal exposure to an ambient concentration.
To assess the integral bioavailable fraction from the water and sediment phase of environmental contaminants for rooted aquatic plants, the internal exposure in river-living Myriophyllum aquaticum plants were determined over time, presented in Chapter 4. The plants were collected at different time points, with the accumulated organic contaminants determined using a liquid extraction method.
In Chapter 5 a protocol was established to enable the non-invasive observation of effects in M. aquaticum plants exposed to contaminated sediments over time. Since the toxicant effects are a result of all uptake and distribution processes to the target site and the toxico-dynamic process leading to an observed effect during static exposure, information on the internal exposure could thus be gained from the temporal effect expression.rn
Der immer schnellere technologische Wandel in der Wirtschaft und die damit verbundenen, sich verkürzenden Innovationszyklen machen die Aus- und Weiterbildung der Mitarbeitenden eines Unternehmens zu einem wichtigen Wettbewerbsfaktor. Traditionelle (Weiter-)Bildungsmethoden können jedoch den resultierenden, ständig wachsenden und immer schneller zu befriedigenden Aus- und Weiterbildungsbedarf nur bedingt befriedigen. Deshalb werden in zunehmenden Maße in der Aus- und Weiterbildung Angebote aus dem Bereich des technologiebasierten Lernens eingesetzt, welche ein selbstgesteuertes und -organisiertes Lernen und durch eine Integration in tägliche Arbeitsabläufe einen optimalen Wissenstransfer mit entsprechend hohem Lernerfolg ermöglichen. Um dies aber auch zu realisieren, ist eine entsprechend hohe Angebotsqualität in Bezug auf die Unterstützung der Nutzenden bei der Erreichung ihrer Lernziele erforderlich. Die Entwicklung qualitativ hochwertiger technologiebasierter Lernangebote ist im Allgemeinen aber mit größeren Aufwänden und längeren Entwicklungszeiten verbunden, wodurch eine Verfügbarkeit eines solchen Angebots zeitnah zum entstandenen Bedarf und in der geforderten Qualität oftmals nicht gewährleistet werden kann.
Diese Arbeit beschäftigt sich deshalb mit der Forschungsfrage, wie eine Lernsoftware entwickelt werden muss, um eine qualitativ hochwertige LSW im Sinne der optimalen Ausrichtung auf die Eigenschaften und Lernziele der einzelnen Lernenden sowie auf den von ihnen geplanten Einsatzkontext für das vermittelte Wissen bei gleichzeitiger Reduzierung von Entwicklungsaufwand und -zeit zu produzieren. Die als Antwort auf die Forschungsfrage definierte IntView-Methodik zur systematischen, effizienten und zeitnahen Entwicklung von qualitativ hochwertigen technologiebasierten Lernangeboten wurde konzipiert, um die Wahrscheinlichkeit der Produktion der Angebote ohne Überschreitung von Projektzeitplänen und -budgets bei gleichzeitiger gezielter Ausrichtung des Angebots auf Zielgruppen und Einsatzkontexte zur Gewährleistung der Qualität zu erhöhen.
Hierzu wurden nach einer umfangreichen Untersuchung von bestehenden Ansätzen zur Lernsoftware-Entwicklung, aber auch zur Produktion von verwandten Produkten wie Multimedia-, Web- oder Software-Anwendungen, diejenigen Durchführungsvarianten der Aktivitäten bzw. Aktivitätsschritte zur Lernsoftware-Entwicklung zu einer systematischen Vorgehensweise integriert, welche in ihrem Zusammenspiel den größten Beitrag zu einer effizienten Produktion leisten können. Kern der Methodik ist ein Entwicklungsprozess zur ingenieursmäßigen Erstellung der Angebote, der alle Entwicklungsphasen abdeckt und die Vorgehensweisen und Methoden aller an der Entwicklung beteiligten Fachdisziplinen, inklusive einer kontinuierlichen Qualitätssicherung von Projektbeginn an, in einen gemeinsamen Prozess integriert. Dieser Prozess wird sowohl als Lebenszyklusmodell als auch als daraus abgeleitetes Prozessmodell in Form eines Abhängigkeitsmodells definiert, um eine optimale Unterstützung eines Projektteams bei Koordination und Abstimmung der Arbeiten in der Entwicklung zu ermöglichen. In Ergänzung zu den Modellen wird eine umfassende Arbeitsunterstützung mit Templates bzw. Dokumentvorlagen inklusive Handlungsanweisungen und Beispielen für die direkte Anwendung der Vorgehensweise durch die Nutzenden bereit gestellt.
Im Rahmen der Evaluation der Methodik wird der Nachweis geführt, dass sie im Zusammenspiel mit ihrer umfangreichen Autorenunterstützung eine sowohl effektive als auch effiziente Lernangebot-Entwicklung ermöglichen kann. In den hierfür durchgeführten Beispielprojekten als auch in den durchgeführten drei Fallstudien wird gezeigt, dass die Methodik zum einen an die Erstellung unterschiedlicher Arten von Lernangeboten bzw. an den Einsatz in verschiedenen Projektkontexten einfach anpassbar sowie zum anderen effizient und effektiv nutzbar ist.
Beispielkommunikation: Formen und Funktionen der Beispielverwendung in der verbalen Interaktion
(2012)
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Wie kaum ein anderes Phänomen hat die Frage nach der Legalität der Selbsttötung, die in ihrer letzten Konsequenz immer eine Frage nach dem Selbstbestimmungsrecht des Menschen ist, Gesellschaften gespalten. Stellte die Selbsttötung in der Antike ein durchaus tolerierbares Mittel dar, um einem qualvollen Leben zu entfliehen, so wurde sie im Mittelalter unter dem Einfluss des Christentums fast durchgängig verboten. Für die Aufklärung, die im allgemeinen Verständnis als eine Epoche gilt, in der sich der Grundgedanke durchsetzt, die Vernunft als allgemeingültigen Wertemaßstab für alles menschliche Handeln heranzuziehen und die Bevormundung durch Autoritäten zu hinterfragen, stellt die Bewertung der Selbsttötung eine besondere "Provokation" dar. Die über einen langen Zeitraum sowohl von kirchlichen als auch weltlichen Autoritäten gleichermaßen propagierte Auffassung von der Unzulässigkeit des aus eigener Hand herbeigeführten Todes konnte unter Perspektive eines Individuationsprozesses im Zeitalter der Aufklärung nicht weiterhin unhinterfragt hingenommen werden.
Während die deutschen Philosophen und Theologen der Aufklärung weitestgehend in traditionellen Bewertungsmustern verhaftet blieben und die Tat je nach Ausrichtung als ein Vergehen wider Gott, die Gemeinschaft oder das eigene Ich verstanden, machten sich Veränderungen in der öffentlichen Wahrnehmung und Bewertung der Selbsttötung vor allem in der Strafrechtsdebatte und im medizinisch-anthropologischen Diskurs bemerkbar. Hier stand nun nicht mehr die Bewertung der Tat im Vordergrund, sondern die Frage nach deren Ursachen. Blieb die Wahrnehmung der Selbsttötung als ein Akt entgegen der Vernunft zunächst zu weiten Teilen bestehen, setzte sich jedoch zunehmend das Verständnis durch, die Selbsttötung als das tödliche Ende einer Krankheit zu begreifen. Eine derartige Bewertung führte beispielsweise dazu, dass die gängige und sowohl im weltlichen als auch im kanonischen Recht verankerte Praxis der Bestrafung der Selbstmörder immer häufiger ausgesetzt wurde.
Gleichzeitig vollzieht sich im Geiste der Aufklärung ein deutlicher Wandel im literarischen Diskurs. Allen voran Johann Christoph Gottsched, dessen Trauerspiel Der Sterbende Cato das Analysekapitel der Arbeit einleitet, wollte ausdrücklich das Trauerspiel in den Dienst der rationalen Philosophie gestellt wissen. Aufbauend auf einem Verständnis, dass Literatur sich als Resonanzraum außerliterarischer Diskurse verstehen lässt und zugleich selbst diskursschaffend ist, stellt sich aus der Zusammenschau der ausgeführten Entwicklungslinien die Frage, wie das Motiv der Selbsttötung, das seit Sophokles als ein erlaubtes und taugliches Inventar des Trauerspiels galt und in der barocken Tragödie vielfach als eine nachahmungs- und bewunderungswürdige Tat dramatisiert wurde, von den Literaten des Aufklärungsjahrhunderts gestaltet wurde. Die Relevanz der Studie ergibt sich somit aus einem Zusammenspiel von Untersuchungszeitraum, Gattung und Selbsttötung als solcher. Die Dissertation leistet einen Beitrag zur Geschichte der Selbsttötung unter Perspektive einer literaturwissenschaftlichen Motivanalyse und legt hierbei ein theoretisch expliziertes Verständnis des Motivbegriffs vor, innerhalb dessen das Motiv nicht ausschließlich als ein handlungsführendes und strukturbildendes Element verstanden wird, sondern darüber hinaus strukturell durch die Gattung bestimmt in den jeweiligen Kontextualisierungen Auskunft über kollektive Denkformen und kommunikative Konventionen gibt. Dieses Konzept ermöglicht es, die Entwicklung des Motivs im literarischen Diskurs anhand der dominierenden Wahrnehmungsparadigmen zu beschreiben. Hierbei werden drei zentrale "Motivgestalten" präsentiert, in denen das Motiv in ähnlichen oder verwandten Implikationen auftritt. Die besprochenen Texte reichen von kanonisierten Klassikern wie Schillers Die Räuber bis hin zu jenen, die nur am Rande der literaturwissenschaftlichen Betrachtung eine Rolle spielen so z.B. Die neue Arria von Freidrich Maximilian Klinger.
Ausgehend von Zwei-Prozess-Modellen der Informationsverarbeitung beschäftigt sich die vorliegende Forschungsarbeit mit der Frage, inwieweit die explizite Ekelsensitivität, vermittelt über die Selbstwahrnehmung automatischer Verhaltenscues, an die implizite Ekelsensitivität angepasst wird. Im Unterschied zu vorangegangenen Studien (Hofmann et al., 2009), die einen "blind spot" für die Selbst-, nicht aber für die Fremdwahrnehmung automatischer Verhaltenscues folgerten, wurde in der vorliegenden Forschungsarbeit in zwei Studien eine Anpassung der expliziten an die implizite Ekelsensitivität gemäß der Selbstwahrnehmungshypothese gezeigt. In Studie 1 (N = 75) wurde die prädiktive Validität eines indirekten Ekelsensitivitätsmaßes mit Hilfe einer doppelten Dissoziation belegt. Studie 2 (N = 117) untersuchte die Selbstwahrnehmungshypothese. Gegenüber den Studien von Hofmann et al. (2009) wurde eine modifizierte Selbstwahrnehmungsprozedur verwendet: (a) Das Verhalten wurde mehrmals zurückgemeldet, wobei jeweils eine geringere Anzahl an Verhaltenscues beurteilt wurde, (b) als Domäne wurde die Emotion Ekel mit klaren, eindeutigen automatischen Verhaltenscues (Gesichtsausdruck, Körperbewegungen) verwendet, (c) neben einem globalen, wurde ein spezifisches explizites Ekelsensitivitätsmaß eingesetzt. In Studie 3 (N = 130) wurden die Ergebnisse von Studie 2 repliziert. Weiterhin wurden mit Display Rules und Need for Closure Moderatoren der prädiktiven Validität und des Selbstwahrnehmungs- und Adaptionsprozesses untersucht. Die Moderatoreffekte weisen darauf hin, dass sowohl das Zeigen von Ekel im Gesichtsausdruck, als auch die Wahrnehmung des eigenen Ekel-Gesichtsausdrucks einer selbstbilddienlichen Verzerrung unterworfen sind. Praktische Implikationen und Anregungen für zukünftige Forschung werden diskutiert.
Gerechtigkeitswahrnehmungen haben sich im Unternehmenskontext als bedeutsame Prädiktoren von Bindungsphänomenen und Extra-Rollenverhalten zugunsten der Organisation erwiesen, aber für Alumni als ehemalige Mitglieder einer Organisation wurde dieser Zusammenhang bisher noch nicht untersucht. Die vorliegende Arbeit gibt einen Überblick über Konzepte, mit denen das in den Sozialwissenschaften bislang wenig adressierte und elaborierte Konzept der Alumnnibindung theoretisch gefasst und mit Konzepten der psychologischen Gerechtigkeitsforschung in Verbindung gebracht werden kann. Um die Bedeutsamkeit von Gerechtigkeitswahrnehmungen während der Hochschulzeit für spätere Alumnibindung und späteres Alumni-Engagement zu untersuchen, wird ein theoretisches Modell vorgeschlagen, das Gerechtigkeit mit bereits bekannten Einflussfaktoren integriert.
Die empirische Studie erfasste zu drei Messzeitpunkten zunächst die Kontrollvariablen und in einer zweiten Erhebungswelle die Gerechtigkeitswahrnehmungen von Studierenden. In einer dritten Erhebung ca. 6-12 Monaten nach Abschluss des Studiums die affektive und normative Hochschulbindung, sowie die Engagement-Bereitschaften von Alumni erhoben. Anhand der Stichprobe, die je nach Messzeitpunkt und beteiligten Variablen zwischen N = 296 bis N =795 Teilnehmenden umfasst, werden einzelne Hypothesen über die Auswirkung von Gerechtigkeitswahrnehmungen, sowie deren Bedeutung innerhalb eines multiplen regressionsanalytischen Mediationsmodelles überprüft.
Die Ergebnisse lassen darauf schließen, dass sich Hochschulbindung und Engagement-Bereitschaften von Alumni nicht nur prinzipiell durch Gerechtigkeitswahrnehmungen vorhersagen lassen, sondern diese insbesondere in ihrer prozeduralen und interaktionalen Komponente einen bedeutsamen Beitrag zur Vorhersage von Hochschulbindung und Engagement-Bereitschaften auch über andere Einflussfaktoren hinaus leisten. Ferner zeigte sich, der Einfluss von Gerechtigkeitswahrnehmungen auf Engagement-Bereitschaften von Alumni je nach konkretem Kriterium über eine affektive oder normative Form der Hochschulbindung mediiert wird.
Die Bedeutung technischer Produkte in unserem Alltag geht weit über die praktischer Werkzeuge hinaus. So ist beispielsweise das Mobiltelefon ein ständiger Begleiter, das neben rein pragmatischen Funktionen auch psychologische Bedürfnisse wie Verbundenheit, Stimulation, Kompetenz, Popularität oder Sicherheit erfüllt. Interaktive Produkte bieten somit ein großes Potential zur Vermittlung freudvoller Erlebnisse, was auch von der Forschung im Bereich Mensch-Technik-Interaktion (Human-Computer Interaction, HCI) anerkannt wurde. Neben aufgabenorientierten Qualitätsaspekten berücksichtigte die HCI-Forschung vermehrt auch Selbst-orientierte, erlebnisbezogene Qualitätsaspekte. Diese Unterscheidung von pragmatischen Produktattributen (beispielsweise Usability, dt. Gebrauchstauglichkeit) und hedonischen Produktattributen (beispielsweise Schönheit) ist angelehnt an das Hedonisch-Utilitaristisch-Modell der Konsumentenpsychologie. Theoretische Modelle des Nutzererlebens (User Experience, UX) messen hedonischen und pragmatischen Attributen eine gleichermaßen wichtige Rolle für das Erleben und die Wertschätzung eines Produkts bei. Im Moment der Produktwahl kommt es jedoch oft zu einem Ungleichgewicht: hier werden vorrangig pragmatische Attribute berücksichtigt, wohingegen hedonische Attribute vernachlässigt werden. Dieses Phänomen lässt sich mit Rechtfertigung erklären. Personen haben das Bedürfnis ihre Wahl zu rechtfertigen und berücksichtigen so eher die Rechtfertigbarkeit von Produktattributen als deren Relevanz für die Freude am Produkt. Pragmatische Attribute sind hier im Vorteil. Durch ihren direkten Bezug zur primären Funktion eines Produkts lassen sie sich weitaus einfacher rechtfertigen als hedonische Attribute. Dies kann dazu führen, dass Personen entgegen ihrer eigentlichen (hedonischen) Präferenz pragmatisch wählen " was ein Dilemma darstellt, denn sie wählen nicht das, woran sie am meisten Freude haben. Die vorliegende Dissertation untersucht die Annahme eines Dilemmas des Hedonischen im Kontext interaktiver Produkte.
Eine erste Reihe von vier Studien bestätigte das angenommene Dilemma. Während Personen ohne Weiteres bereit waren, für einen Qualitätszuwachs bezüglich eines pragmatischen Attributs zu bezahlen, widerstrebte es ihnen, für einen Qualitätszuwachs bezüglich eines hedonischen Attributs zu bezahlen (Studie 1, N = 422). Studie 2 (N = 134) zeigte jedoch, dass Personen hedonische Produktattribute durchaus schätzen und ihre Wahl (insgeheim) auch daran orientieren. Sie begründen ihre Wahl aber vorrangig mit (durchaus fraglichen) pragmatischen Vorteilen. Studie 3 (N = 118) konfrontierte die Studienteilnehmer mit einer Wahl, die einen Kompromiss zwischen hedonischer und pragmatischer Qualität erforderte. Obgleich die Aussicht auf den Erhalt des hedonischen Produkts mit einem höheren Maß an positivem Affekt assoziiert wurde, wählte die Mehrheit der Teilnehmer das pragmatische Produkt, vor allem diejenigen mit einem hohen Rechtfertigungsbedürfnis. Der gefundene Zusammenhang zwischen Produktwahl und erlebtem Bedarf nach Rechtfertigung untermauerte die Annahme von Rechtfertigung als zugrundeliegenden Faktor. Studie 4 (N = 125) widmete sich der weiteren Exploration affektiver Konsequenzen sowie angeführten Begründungen für hedonische und pragmatische Wahl. Wieder war das hedonische Produkt mit einem höheren Maß an positivem Affekt assoziiert als das pragmatische " selbst unter denjenigen, die das pragmatische Produkt wählten.
Eine zweite Gruppe von drei Studien explorierte Möglichkeiten zur Reduktion des Dilemmas mittels experimenteller Manipulation von Rechtfertigung. Die getesteten Manipulationen setzten sowohl an der Rechtfertigbarkeit von Produktattributen als auch am generellen Bedarf nach Rechtfertigung an. Studie 5 (N = 129) erhöhte die jeweilige Rechtfertigbarkeit von hedonischer und pragmatischer Wahl mittels der Eindeutigkeit dargebotener Informationen über Produktattribute. Nicht eindeutige, "elastische" Informationen boten hier einen erhöhten Interpretationsspielraum, der zugunsten bestehender Präferenzen genutzt werden konnte. Erwartungsgemäß führte eine erhöhte Rechtfertigbarkeit zu einem Anstieg der Hedonisch-Wahlraten, die Pragmatisch-Wahlraten blieben von der Manipulation unbeeinflusst. Studie 6 (N = 178) erhöhte die Rechtfertigbarkeit einer hedonischen Wahl durch einen "Testbericht", der hedonische Attribute als ein scheinbar legitimes Entscheidungskriterium anführte. Auch hier zeigte sich mit steigender Rechtfertigbarkeit ein Anstieg der Hedonisch-Wahlraten. Studie 7 (N = 133) manipulierte den generellen Bedarf nach Rechtfertigung durch ein Framing des Produktkaufs als Belohnung. Für ein hedonisches Produkt zeigte sich ein positiver Effekt des Belohnungs-Framings auf die Kaufbereitschaft, für ein pragmatisches Produkt zeigte sich hingegen kein Effekt der Rechtfertigungsmanipulation.
Die vorliegenden Studien zeigen auf, dass hedonische Attribute auch bei technischen Produkten geschätzt werden, wenngleich diese landläufig oft als "Werkzeuge" betrachtet werden. Genau diese noch immer weitverbreitete rein pragmatische Sichtweise auf Technik ist es womöglich, die Personen zögern lässt, ihrem Wunsch nach hedonischer Qualität nachzugeben " zumindest solange sie glauben, ihre Wahl rechtfertigen zu müssen. Die vorliegenden Ergebnisse tragen zu einem besseren Verständnis der komplexen Konsequenzen hedonischer und pragmatischer Attribute bei, und weisen auf eine generelle Notwendigkeit der Erweiterung des Fokus der User Experience-Forschung auf den Moment der Wahl hin. Limitationen der vorliegenden Studien, Implikationen für zukünftige Forschung, sowie praktische Implikationen für die Produktgestaltung und -vermarktung werden diskutiert.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.