004 Datenverarbeitung; Informatik
Filtern
Erscheinungsjahr
- 2008 (75) (entfernen)
Dokumenttyp
- Studienarbeit (26)
- Diplomarbeit (23)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Bachelorarbeit (5)
- Masterarbeit (5)
- Dissertation (2)
Schlagworte
- Bildverarbeitung (3)
- Computerspiel (3)
- Analyse durch Synthese (2)
- Business Intelligence (2)
- Computergrafik (2)
- E-IMS (2)
- E-Partizipation (2)
- Electronic Government (2)
- Evaluation (2)
- Informatik (2)
- Java (2)
- Markerloses Tracking (2)
- Programmierung (2)
- Robotik (2)
- Rollenspiel (2)
- Simulation (2)
- Tracking (2)
- Universität Koblenz-Landau (2)
- VNUML (2)
- 3D Painting (1)
- 3D-Abbildungen (1)
- 3D-Modell (1)
- ATMega 16 (1)
- ATmega644 (1)
- ATtiny2313 (1)
- Abduktion <Logik> (1)
- Abfragesprache (1)
- Agent (1)
- Alex Bernstein (1)
- Ambient Occlusion (1)
- Anforderung (1)
- Anwendungssoftware (1)
- BI (1)
- Bachelor (1)
- Bachelorstudiengang (1)
- Balanced Scorecard (1)
- Bayes-Netz (1)
- Bayesian Networks (1)
- Beschaffung (1)
- Bewegungsmodell (1)
- Blinder Fleck (1)
- Bluetooth (1)
- Burg (1)
- Business Continuity Management (1)
- Bürgerbeiteiligung (1)
- CAD (1)
- CSMs (1)
- CSV (1)
- CTI (1)
- Campus Koblenz (1)
- CodeBlue (1)
- Colonoscopy (1)
- ColorSym (1)
- Computer Security (1)
- Computer-aided diagnosis (1)
- Computermodell (1)
- Computersicherheit (1)
- Computersimulation (1)
- Computertomografie (1)
- Conference (1)
- Content Management (1)
- Counting-to-Infinity (1)
- Creativity (1)
- DEMO_net (1)
- DHCPv6 (1)
- Darmspiegelung (1)
- Data Warhousing (1)
- Data-Warehouse-Konzept (1)
- Datenschutz (1)
- Datenschutzpolicy (1)
- Diabetes (1)
- Diabetische Retinopathie (1)
- Diagnose (1)
- Diagnosis (1)
- Digitale Steuerung (1)
- Dimensionality Reduction (1)
- Dimensionsreduzierung (1)
- Disaster Recovery (1)
- Distanz-Vektor (1)
- Dokumentation (1)
- E-participation (1)
- EEPROM (1)
- EPROM (1)
- ERP-Systeme (1)
- EU-Dienstleistungsrichtlinie (1)
- Einkauf (1)
- Enterprise Resource Planning (1)
- Entscheidungsprozess (1)
- Erweiterte Realität (1)
- Europäischer Binnenmarkt (1)
- Event (1)
- Eye-Tracking (1)
- Farbkalibrierung (1)
- Farbsymmetrie (1)
- FastSLAM Algorithmus (1)
- Fault Trees (1)
- Feature Extraction (1)
- Fehlerbaum (1)
- Formal Methods (1)
- Formale Methoden (1)
- GLSL (1)
- GPGPU (1)
- Gaze-Tracking (1)
- Generative Modellierung (1)
- Geometrie-Shader (1)
- Glaukom (1)
- Grafikprozessor (1)
- Graph (1)
- Gupro (1)
- HNF-Algorithmus (1)
- Headerdaten Netzwerkpaket SOCK_RAW SOCK_PACKET (1)
- Heidelberg Retina Tomograph (1)
- Hermite-Normalform (1)
- Hochgeschwindigkeitstracking (1)
- Human-Computer Interaction (1)
- ICP-Algorithmus (1)
- IEC 61131 (1)
- IPv6 (1)
- IT-Sicherheitsmodelle (1)
- Inflation (1)
- Informationssystem (1)
- Informationsvisualisierung (1)
- Intelligent Information Network (1)
- Internetzugang (1)
- Interoperability (1)
- Interoperabilität (1)
- Interpersonale Kommunikation (1)
- Intranet-Zugang (1)
- Java-Quelltext (1)
- Kantenverfolgung (1)
- Katastrophenschutz (1)
- Knowledge Sharing (1)
- Koloskopie (1)
- Kondertal (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krisenmanagement (1)
- Kryptographie (1)
- Logging (1)
- Lokalisierung (1)
- MMORPG (1)
- Mail-Filter (1)
- Malen (1)
- Mammographie (1)
- Marktanalyse (1)
- Massenkommunikation (1)
- Master (1)
- Masterstudiengang (1)
- Medical Image Analysis (1)
- Medizinische Bildanalyse (1)
- Medizinische Bildverarbeitung (1)
- Medizintechnik (1)
- Mehragentensystem (1)
- Mensch-Maschine-Interaktion (1)
- Merkmalsextrahierung (1)
- Metriken (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrocontroller (1)
- Mikrocontroller AVR (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mobile Information Systems (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Modellbasiertes Tracking (1)
- Modul (1)
- Modulhandbuch (1)
- Montageablauf (1)
- Morphologische Operatoren (1)
- Multivariate Datenanalyse (1)
- NPO (1)
- Navigation (1)
- Netzwerkschicht (1)
- Netzwerksimulation (1)
- Nonprofit-Organisation (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Oberflächenorientierung (1)
- Objektverfolgung (1)
- Octree Textur (1)
- Onlinespiele (1)
- OpenGL (1)
- Ornamentklassifikation (1)
- P3P (1)
- P3P-Policy-Generator (1)
- Packet Header SOCK_RAW SOCK_PACKET (1)
- Personentracking (1)
- Personenverfolgungssystem (1)
- Petri Nets (1)
- Petri-Netz (1)
- Politische Kampagne (1)
- Politische Meinungsbildung (1)
- Polypendetektion (1)
- PostgreSQL (1)
- Program Slicing (1)
- Programmanalyse (1)
- Programmiergerät (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Propagation (1)
- Prozessanalyse (1)
- RCP (1)
- RDF modeling (1)
- RIP (1)
- RIP-MTI (1)
- Rendering (1)
- Requirements-Engineering (1)
- Retina Befundbilder (1)
- Retina Fundus Bilder (1)
- Retina Fundus Images (1)
- Retinex-Algorithmus (1)
- Rich Internet Application (1)
- Robert P. Abelson (1)
- Robocup 2008 (1)
- Routing-Loop (1)
- SAC (1)
- SPARQL (1)
- Schatten (1)
- Semantic Web (1)
- Semantik (1)
- Shaderframework (1)
- Shaderprogramm (1)
- Sich langsam verändernde Dimensionen (1)
- Skriptsprache (1)
- Slowly Changing Dimensions (1)
- Social Networking Platforms (1)
- Socket (1)
- Socket-Schnittstelle (1)
- Soziale Netzwerke (1)
- Spam-Mail (1)
- Spieleentwicklung (1)
- SpoGA (1)
- SpoGa (1)
- Sprachverarbeitung (1)
- Staat (1)
- Starrkörper (1)
- Stilisierung (1)
- Supply Chain Management (1)
- Syntax (1)
- System Dynamics (1)
- Systemanalyse (1)
- TAP (1)
- TGraphen (1)
- Taktstraße (1)
- Textur (1)
- Textur-Mapping (1)
- Texturierung (1)
- Tracking-System (1)
- Trackingsystem (1)
- Transform Feedback (1)
- Transportschicht (1)
- UML (1)
- Umfrage in Koblenz (1)
- Umgebungslicht (1)
- Unsicheres Schließen (1)
- Unternehmen (1)
- Unterwasser-Pipeline (1)
- Unterwasserfahrzeug (1)
- Unterwasserkabel (1)
- Vegetation distribution (1)
- Veranstaltung (1)
- Verbindungsschicht (1)
- Verwaltungsautomation (1)
- Virtuelle Realität (1)
- Virtuelle Welt (1)
- Volumenrendering (1)
- WLAN (1)
- WSN (1)
- Wahrscheinlichkeit (1)
- Web Services (1)
- Wissensmanagement (1)
- World of Warcraft (1)
- Zielverfolgung (1)
- agent (1)
- augmented reality (1)
- bachelor (1)
- colour calibration (1)
- computer science (1)
- deutschsprachiger Markt (1)
- diabetic retinopathy (1)
- dreidimensionale Computergraphik (1)
- eGovernment (1)
- eGroupware (1)
- eSourcing (1)
- edge linking (1)
- elektronische Anwendungen (1)
- event (1)
- geometry shader (1)
- grassland (1)
- information system (1)
- java (1)
- markerless tracking (1)
- master (1)
- medical care (1)
- medical image processing (1)
- mobile health care (1)
- module handbook (1)
- morphological operators (1)
- natural language processing (1)
- natürliche Sprache (1)
- octree texture (1)
- person (1)
- personal information management (1)
- persönliches Informationsmanagement (1)
- polyp detection (1)
- projektives Malen (1)
- retina fundus images (1)
- revenue management (1)
- semantic desktop (1)
- semantischer Desktop (1)
- simulation (1)
- summative evaluation (1)
- survey in Koblenz (1)
- syntaktische Analyse (1)
- texturing (1)
- transform feedback (1)
- vegetation modeling (1)
- wireless sensor networks (1)
Im Rahmen dieser Studienarbeit wurde ein Faktenextraktor für Java-Quelltexte entwickelt. Der Javaextraktor generiert eine TGraph-Repräsentation der Quelltexte eines in Java implementierten Softwareprojekts. Dieser TGraph ist dann durch dieWerkzeuge des Gupro-Projekts weiter verarbeitbar. Der Javaextraktor kann Javaquelltexte bis einschließlich Javaversion 6 verarbeiten. Dazu wurde ein Werkzeug gefunden, welches den Parsingvorgang übernimmt, so dass diese Funktion nicht selbst implementiert werden musste. Zusätzlich wurde ein Javametamodell und entsprechendes Schema für den TGraph entwickelt. Die Knoten- und Kantentypen des Metamodells konnten automatisiert mit JGraLab aus dem Schema erzeugt werden.
Enterprise Resource Planning Systeme (ERP) bilden für viele Unternehmen eine wertvolle informationstechnische Unterstützung in der täglichen Wertschöpfung. Sie repräsentieren eine Klasse von hoch-integrierten und standardisierten betrieblichen Anwendungssystemen, deren Nutzenpotential für ein Unternehmen wettbewerbsentscheidend sein kann. Trotzdem muss eine Einführung von den verantwortlichen CEOs und CIOs sorgsam abgewogen werden, denn zu voreilige oder schlecht geplante ERPProjekte können ein erhebliches finanzielles Risiko darstellen, so dass am Ende sogar die Existenz eines Unternehmens bedroht ist. Bereits bestehende Systeme können aufgrund von einer unzureichenden Integrationsfähigkeit oder veralteten Technologie zusätzliche Wartungskosten verursachen, die in keinem Verhältnis zu den initialen Lizenzkosten mehr stehen. Wie kann man nun eine Vorstellung davon erhalten, welches ERP-System für ein Unternehmen geeignet ist? Gibt es bereits Standardpakete, deren Wartung und Pflege deutlich einfacher ist? Oder ist eine Mietlösung ein zu gewagtes Risiko? Diese Fragen haben den Anstoß zu der folgenden Arbeit gegeben. Die Aufgabe besteht darin, ein möglichst umfassendes Bild der kurz- bis mittelfristigen Zukunft des deutschen ERP-Marktes zu zeichnen. Dafür wurden in einer längeren Zeitperiode zahlreiche in Deutschland tätige Softwarehäuser hinsichtlich wichtiger Aspekte ihres ERPSystems befragt und die Antworten ausgewertet. Welchen Herausforderungen und welchen Anforderungen sich deutsche Anbieter in den kommenden drei bis fünf Jahren stellen müssen, werden die folgenden Kapitel erläutern.
ERP-Systeme stellen einen wichtigen Kompetenzbereich der Forschungsgruppe Betriebliche Anwendungssysteme (FG BAS) am Institut für Wirtschafts- und Verwaltungsinformatik (IWVI) der Universität Koblenz-Landau dar. In enger Zusammenarbeit mit Partnern aus Wirtschaft und Wissenschaft vermittelt die Forschungsgruppe sowohl Grundlagenforschung als auch praxisbezogenes Wissen an Studierende und Unternehmen. Der vorliegende Arbeitsbericht "Künftige Anforderungen an ERP-Systeme: Deutsche Anbieter im Fokus" beleuchtet auf vier Ebenen die Architektur, die verwendete Technologie, die praktischen Einsatzmöglichkeiten und die allgemeine Marktsituation aktueller ERP-Systeme auf dem deutschsprachigen Markt. Ein besonderer Dank geht in diesem Zusammenhang an Peter Herzog (zum damaligen Zeitpunkt Marketingleiter der Bison AG), der die Idee einer solchen Untersuchung hatte und die FG BAS mit deren Durchführung betraute. Die Studie wurde vom Sommer 2007 bis zum Frühling 2008 von Norbert Frick im Rahmen seiner Diplomarbeit im Fach Informatik durchgeführt. Die Auswertung der Ergebnisse wurde inhaltlich und wissenschaftlich betreut von Prof. Dr. Petra Schubert. Die Arbeit entstand aufgrund von Literaturrecherchen, schriftlichen Umfragen und Telefoninterviews mit ERPAnbietern.
Der Fachbereich 4: Informatik der Universität Koblenz-Landau bietet seit seiner Gründung 1990 wissenschaftliche Studiengänge (Diplom) in Informatik mit verschiedenen Schwerpunkten, darunter Wirtschaft- und Verwaltungsinformatik an, dem nach und nach weitere Studiengänge zur Seite gestellt wurden: seit 1997 Computervisualistik (Diplom) und seit 2000 Informationsmanagement (Bachelor und Master). Der Fachbereich 4: Informatik hat zum Wintersemester 2006/2007 sein Lehrangebot in den Nicht-Lehramtsstudiengängen vollständig auf konsekutive Bachelor- und Masterstudiengänge umgestellt. Die Akkreditierung erfolgte über die Akkreditierungsagentur ASIIN. Die Aufnahme von Studienanfängern für die bis dahin angebotenen Diplomstudiengänge "Informatik" bzw. "Computervisualistik" wurde gleichzeitig eingestellt, und diese wurden durch ein integriertes Programm mit zwei konsekutiven Bachelor-Master-Studienprogrammen in "Informatik" und "Computervisualistik" ersetzt. Das bereits bestehende Bachelor-Master-Programm in "Informationsmanagement" wurde reformiert, und ein weiterer Masterstudiengang in "Wirtschaftsinformatik" wurde eingerichtet. Bei der Konzeption dieser sieben Studiengänge wurde auf eine hohe Integration und Studiengangs-übergreifende Wiederverwendung von Modulen geachtet. Die in diesem Papier vorgestellten Studiengänge für das Lehramt wurden schon bei der damaligen Planung mit einbezogen. Da mit Prof. Dr. Stefan Müller der Leiter der Landesarbeitsgruppe zur Erarbeitung der curricularen Standards für das Fach Informatik bei der Planung eng mit eingebunden war, konnten die Module der Bachelor- und Masterstudiengänge von Anfang an im Hinblick auf eine spätere Verwendung auch im Lehramt konzipiert werden.
Ziel dieser Arbeit ist es, markerloses Tracking unter dem Ansatz der Analyse durch Synthese zu realisieren und dabei auf den Einsatz merkmalsbasierter Verfahren zu verzichten. Das Bild einer Kamera und ein synthetisches Bild der Szene sollen durch den Einsatz von Stilisierungstechniken so verändert und angeglichen werden, dass zu dem gegebenen Kamerabild aus einer Auswahl von gerenderten Bildern jenes erkannt werden kann, welches die reale Kamerapose am exaktesten wiedergibt. Es werden Kombinationen von Ähnlichkeitsmaßen und Visualisierungen untersucht, um eine bestmögliche Vergleichbarkeit der Bilder zu erreichen, welche die Robustheit gegen Trackingfehler erhöhen soll.
Markerloses Tracking unter Verwendung von Analyse durch Synthese auf Basis von Featuredetektoren
(2008)
In der vorliegenden Diplomarbeit wurde ein auf "Analyse durch Synthese" sowie Featuredetektoren basierendes Trackingsystem implementiert, beschrieben und getestet. Das Ziel war die Untersuchung im Hinblick auf den Mehrwert der Computergraphik in einem markerlosen Trackingablauf, indem der Ansatz der "Analyse durch Synthese" zur Poseschätzung eingesetzt wird.
Colonoscopy is one of the best methods for screening colon cancer. As the automatic detection of polyps in endoscopic images is a challenging task for image processing, a variety of research groups have proposed methods that try to fulfill this task to develop a system which supports the doctors during examination. However, the problem is still "at least partially" not solved. This paper gives a summary of 16 different polyp detection methods published in the last ten years. We found out that the major draw-back of many approaches is the lack of representative video data, which hinders comparison and evaluation of the published methods.
Bei der subjektiven Interpretation von Mammographien werden Studien zufolge 10% bis 30% von Brustkrebserkrankungen im Frühstadium nicht erkannt. Eine weitere Fehlrate beziffert die fälschlich als möglichen Brustkrebs eingestuften Herde; diese Fehlrate wird mit 35% angegeben. Ein solche Fehleinschätzung hat für die Patientin weitreichende negative Folgen. Sie wird einer unnötigen psychischen und körperlichen Belastung ausgesetzt. Um solche Fehleinschätzungen zu minimieren, wird zunehmend die Computer-aided Detection/Diagnosis (CAD) eingesetzt. Das Ziel dieser Arbeit ist die Evaluation von Methoden multivariater Datenanalyse, eingesetzt zur Diagnose von Herdbefunden. Die aus der Gesichtserkennung bekannten Methoden Eigenfaces und Fisherfaces werden auf Mammographieaufnahmen angewendet, um eine Einordnung von Herdbefunden nach benign oder malign zu tätigen. Eine weitere implementierte Methode wird als Eigenfeature Regularization and Extraction bezeichnet. Nach einer Einführung zum medizinischen Hintergrund und zum aktuellen Stand der computer-assistierten Detektion/Diagnose werden die verwendete Bilddatenbank vorgestellt, Normierungsschritte aufgeführt und die implementierten Methoden beschrieben. Die Methoden werden der ROC-Analyse unterzogen. Die Flächen unterhalb der ROC-Kurven dienen als Maß für die Aussagekraft der Methoden. Die erzielten Ergebnisse zeigen, dass alle implementierten Methoden eine schwache Aussagekraft haben. Dabei wurden die Erwartungen an die Fisherface- und ERE-Methode nicht erfüllt. Die Eigenface-Methode hat, angewendet auf Herdbefunde in Mammogrammen, die höchsten AUC-Werte erreicht. Die Berücksichtigung der Grauwertnormierung in der Auswertung zeigt, dass die qualitativen Unterschiede der Mammogramme nicht ausschlaggebend für die Ergebnisse sind.
Ziel dieser Arbeit ist es das nötige Wissen zur Sicherstellung einer korrekten Datenhistorie in einem Business Intelligence System zu liefern. Dabei wird vor allem auf das Phänomen von sich langsam verändernden Dimensionen (Slowly Changing Dimensions) eingegangen, das eine Optimierung der Datenhistorie darstellt. Der in der Wirtschaft nicht ganz eindeutige Begriff "Business Intelligence" wird nach [Kemper et al., 2006] als integrierter, unternehmensspezifischer IT-Gesamtansatz zur betrieblichen Entscheidungsunterstützung definiert. Dazu zählen im Einzelnen der ETL-Prozess, das Data Warehousing und das Online Analytic Processing. Weiterhin zählen dazu noch das Data Mining, das Reporting und die Präsentation (Dashboard und Portale). In Datenbanksysteme gibt es die Möglichkeit Slowly Changing Dimensions gezielt zu speichern. Dies geschieht im ETL-Prozess. Bevor die Daten in die Zieldatenbank geladen werden, werden sie speziell transformiert. Type 1 SCD stellt den einfach Fall des Updates dar. Der alte Wert wird lediglich mit dem neuen Wert überschrieben. Somit wird nur der aktuelle Stand eines DWH dargestellt. Type 3 SCD wird dagegen am seltensten verwendet. Hierbei wird eine weitere Spalte hinzugefügt, die den neuen Zustand anzeigt. In der alten spalte bleibt stets der originale Zustand gespeichert. Im Gegensatz zu Type 2 SCD kann hier nur der originale und der aktuelle Zustand angezeigt werden. Zwischenstände sind nicht möglich Diese Technik wird am seltensten verwendet ([Kimball et al., 2000]). Bei Type 2 SCD wird eine Historisierung durchgeführt. Dazu wird der alte Datensatz kopiert und mit der Änderung eingefügt. Zur eindeutigen Identifikation wird ein Ersatzschlüssel eingefügt. Der alte Schlüssel bleibt den Datensätzen als Attribut erhalten. Außerdem erhalten der alte und der neue Datensatz ein Start und Endedatum. So können beliebig viele Zustände über die Zeit gespeichert werden. Type 2 SDC ist die am häufigsten verwendete Methode. Weiterhin können zur Historisierung von Slowly Changing Dimensions Mischformen bzw. Erweiterungen dieser drei Arten verwendet werden.
Die Integration von GPS-Empfängern in massenmarkttaugliche Endgeräte führt zu einer Vielfalt neuer Anwendungsmöglichkeiten. Gerade in der Spieleentwicklung eröffnen sich durch diese Erweiterung um ortsbezogene Informationen bisher wenig genutzte Ansätze, da die übliche statische Spielwelt um die reale Umgebung ergänzt oder durch sie ersetzt wird. Eine damit einhergehende Steigerung des Spielerlebnisses bietet einen Vorteil gegenüber gängigen Spielen und somit Marktchancen. Die prototypische Umsetzung soll weiterhin dazu dienen, die technischen Grundlagen für weitere Anwendungen zu schaffen. Beispiele hierfür sind Informationssysteme auf Veranstaltungen oder Navigationshilfen. Die zugrundeliegende, auf ein Geoinformationssystem aufbauende, Infrastruktur dient auch in diesen Fällen der sinnvollen Erweiterung der Anwendung. Weiterhin erfordert die Nutzung mobiler netzwerkbasierender Anwendungen die bei mobiler Datenkommunikation auftretenden Verbindungsschwierigkeiten zu berücksichtigen. Aus diesem Grund beschäftigt sich diese Arbeit mit der Behandlung dieser Probleme.
Gegenstand dieser Arbeit ist die Entwicklung eines Generators für Datenschutzpolicies. Diese werden in der P3P-Sprache formuliert. P3P steht für Platform for Privacy Preferences und ist ein Standard zum Schutz der Privatsphäre im Internet, der vom World Wide Web Consortium (W3C) entwickelt wurde. Er dient zum Austausch von Datenschutzinformationen. Die Datenschutzpraktiken einer Website können durch P3P in maschinenlesbarer Form durch sogenannte Policies beschrieben werden. So wird ein automatisierter Vergleich mit den entsprechenden Präferenzen auf Nutzerseite möglich. Der im Rahmen dieser Arbeit entwickelte Generator soll das Erstellen der Policies auf Anbieterseite erleichtern. Er entstand in Zusammenarbeit mit dem Landesbeauftragten für den Datenschutz Rheinland-Pfalz und geht auf die Bedürfnisse von Behörden ein, die P3P-Policies auf ihren Webseiten verwenden wollen.
Personenverfolgungssysteme bestehen oft aus teurer und meist an Personen befestigter Trackinghardware, die die Bewegungsfreiheit der Personen deutlich einschränkt. Durch die in den letzten Jahrzehnten angestiegene Rechenleistung der Computersysteme ist es möglich, Bilddaten von digitalen Video-, Foto- oder Webkameras in Echtzeit auszuwerten. Dadurch erschließen sich neue Möglichkeiten, die eine Verfolgung von Personen auch ohne die störrige Trackinghardware erlauben. In dieser Arbeit soll ein System zum Verfolgen von Personen auschließlich unter Zuhilfenahme einer Videokamera und eines Computers, also ohne Marker, entwickelt werden.
Probability propagation nets
(2008)
In der vorliegenden Arbeit wird eine Petri-Netz-Repräsentation für die Propagation von Wahrscheinlichkeiten und Evidenzen (Likelihoods) vorgestellt und auf probabilistische Horn-Abduktion sowie Fehlerbäume und Bayes-Netze angewendet. Diese sogenannten Wahrscheinlichkeits-Propagations-Netze (probability propagation nets) machen Propagations-Prozesse transparent, indem sie strukturelle und dynamische Aspekte in einer homogenen Darstellung vereinen. Anhand populärer Beispiele wird verdeutlicht, dass Wahrscheinlichkeits-Propagations-Netze die Propagations-Prozesse - besonders im Hinblick auf die Bayes-Netz-Algorithmik - anschaulich darstellen und gut nachvollziehbar machen, so dass sie sich für die Analyse und Diagnose probabilistischer Modelle eignen. Durch die Repräsentation von Fehlerbäumen mit Wahrscheinlichkeits-Propagations-Netzen können diese Vorzüge auf die Modellierung technischer Systeme übertragen werden.
Program slicing
(2008)
Im Rahmen dieser Diplomarbeit wird das Dienstmodell für Program Slicing, welches von Hannes Schwarz vorgestellt wurde, zu einem komponentenbasierten Referenztool weiterentwickelt und implementiert. Dieses Referenztool verwendet zum Slicen ein Referenzschema für Programmiersprachen, welches ebenfalls in dieser Arbeit eingeführt wird. Die hier eingesetzten Slicing-Verfahren basieren auf diesem Referenzschema. Somit kann das Referenztool als Grundlage zum Slicen von Quellcode in beliebigen Programmiersprachen genutzt werden, wenn das Referenzschema vorab an die Gegebenheiten dieser Sprachen angepasst wird. Exemplarisch wird in dieser Diplomarbeit ein Program Slicing Tool für C-Quellcode entwickelt. Dieses Slicing Tool basiert auf dem Referenztool, in dem es die einzelnen Komponenten des Referenztools bei Bedarf spezialisiert oder in der ursprünglichen Form übernimmt. Damit das Program Slicing Tool als Referenz gelten kann, wird in dieser Arbeit eine einfache, erweiterbare und komponentenbasierte Architektur entwickelt. Diese entsteht durch den Einsatz aktueller Prinzipien der Softwaretechnik.
In dieser Studienarbeit werden neben den Grundlagen der Web Services, Komponenten und APIs zur Realisierung des Sticky Loggings aufgezeigt. Es wird ein Szenario zum Testen des Sticky Loggings beschrieben und als Web Services implementiert. Der Sticky-Logging-Formalismus wird erklärt und es wird eine API zur Erstellung der StickyLogs implementiert. Die StickyLogs werden innerhalb des SOAP-Attachments der SOAP-Nachrichten zwischen den Web Services ausgetauscht. Dazu wird eine Realisierung mit einem Messagehandler unter JAX-WS programmiert und erläutert.
Querying for meta knowledge
(2008)
The Semantic Web is based on accessing and reusing RDF data from many different sources, which one may assign different levels of authority and credibility. Existing Semantic Web query languages, like SPARQL, have targeted the retrieval, combination and reuse of facts, but have so far ignored all aspects of meta knowledge, such as origins, authorship, recency or certainty of data, to name but a few. In this paper, we present an original, generic, formalized and implemented approach for managing many dimensions of meta knowledge, like source, authorship, certainty and others. The approach re-uses existing RDF modeling possibilities in order to represent meta knowledge. Then, it extends SPARQL query processing in such a way that given a SPARQL query for data, one may request meta knowledge without modifying the query proper. Thus, our approach achieves highly flexible and automatically coordinated querying for data and meta knowledge, while completely separating the two areas of concern.
Für die Netzwerkprogrammierung hat sich auf breiter Front das Socket API nach Vorbild der Berkley Sockets durchgesetzt. Die "normalen" Sockets in Form von Stream- oder Datagram-Sockets erleichtern zwar die Programmierarbeit, verschleiern jedoch auch zahlreiche Details der Netzwerkkommunikation vor dem Programmierer. So ist man beispielsweise auf die Nutzung der Protokolle TCP oder UDP eingeschränkt und agiert zwangsläufig bereits auf dem Application-Layer des TCP/IP Referenzmodells. Für den Zugriff auf tiefer gelegene Netzwerkschichten, d.h. für den Zugriff auf die Headerdaten eines Netzwerkpaketes, hält das Socket API die sogenannten RAW Sockets bereit. Mit ihnen ist es möglich, alle IP Pakete inklusive Headerdaten zu lesen oder von Grund auf neu zu generieren. Hiermit ist es nun auch möglich, Protokolle zu verwenden, die dem Anwendungsprogrammierer bislang nicht zugänglich waren (z.B. ICMP oder OSPF) oder sogar eigene IP basierte Protokolle zu entwickeln. RAW Sockets stoßen an ihre Grenzen, wenn es darum geht auf den Data-Link-Layer der Netzwerkkommunikation zuzugreifen. Unter Linux gibt es hierfür einen weiteren Socket-Typ: Den PACKET Socket. Die Studienarbeit möchte einen Einstieg in die Programmierung mit den eher unbekannten RAW und PACKET Sockets schaffen. Dabei werden einige Beispielprogramme vorgestellt und mögliche Anwendungsgebiete aufgezeigt.
Öffentliche elektronische Beschaffung (eProcurement), bzw. strategischer elektronischer Einkauf (eSourcing), sind mit hoher Wahrscheinlichkeit Thema sobald eGovernment Experten aufeinander treffen. So ist es nicht überraschend, dass eProcurement im aktuellen Aktionsplan der EU als "high-impact service" eingestuft wurde. Dies lässt sich zum Großteil durch den großen Einfluss vom öffentlichen Einkauf auf die Staatskasse erklären. So macht eProcurement in der Regel bis zu 20% des BIP aus und beherbergt somit ein enormes Einsparpotenzial. Dieses Potenzial liegt zum Teil im gemeinsamen Europäischen Wirtschaftsraum, da effizientes länderübergreifendes eSourcing neue Möglichkeiten für Einkäufer sowie Lieferanten eröffnen kann. Um diese Möglichkeiten ausschöpfen zu können, müssen Prozesse und Tools in der Lage sein, miteinander zu kommunizieren, sich aufeinander abzustimmen oder transferierbar sein. In einem Wort, sie müssen interoperabel sein. In vielen wichtigen Bereichen ist Interoperabilität sehr weit fortgeschritten, in anderen hingegen muss noch viel verändert werden. Daher ist es von wesentlicher Bedeutung Interoperabilitätsanforderungen zu definieren, sowie den aktuellen Forschungs- und Entwicklungsstand zu evaluieren.
The University of Koblenz-Landau would like to apply for participation in the RoboCup Mixed Reality League in Suzhou, China 2008. Our team is composed of ten team members and two supervisors. All members are graduate students of Computational Visualistics. Our supervisors are Ph.D. candidates currently researching in the working groups of artificial intelligence and computer graphics.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.