Logo Leibniz Universität Hannover
Institut für Wirtschaftsinformatik/Leibniz Universität Hannover
Logo Leibniz Universität Hannover
Institut für Wirtschaftsinformatik/Leibniz Universität Hannover
  • Zielgruppen
  • Suche
 

Forschungsschwerpunkte

Meine Forschungsschwerpunkte liegen heute auf verschiedenen Gebieten der Wirtschaftsinformatik und benachbarter Disziplinen wie z. B. der praktischen und der angewandten Informatik sowie der angewandten Mathematik. Zu den Gebieten zählen im Einzelnen

  • E- und M-Business, insbes. E- und M-Learning, Preisvergleichsdienste und (BOS-)Digitalfunk,
  • Künstliche Intelligenz, insbes. Künstliche Neuronale Netze und Neurosimulation,
  • Wissenschaftliches Hoch- und Höchstleistungsrechnen,
  • Operations Research, insbes. (Echtzeit-)Optimierung, (Echtzeit-)Optimalsteuerung und (Differential-)Spieltheorie,
  • Mathematische Modellbildung und Simulation,
  • Systementwicklung und Software-Engineering,
  • Softwareagenten,
  • Ubiquitous Computing,
  • Informationssicherheit,
  • Finanz- und Versicherungsmathematik, insbes. Risikomanagement und Derivate,
  • Futurologie und Technologiefolgenabschätzungen sowie
  • Wissenschaftstheorie, -ethik und -geschichte,

vgl. auch die Forschung am Institut für Wirtschaftsinformatik. Die Grundlagen für diese Interessen wurden in den Lehrveranstaltungen und Vorträgen meines akademischen Lehrers Prof. Dr. Dr. h. c. mult. Roland Bulirsch an der TU München bereits früh gelegt. Herr Prof. Bulirsch verbindet Mathematik, Informatik, Wirtschafts- und Ingenieurwissenschaften auf ideale Weise. Seit dieser Zeit beschäftige ich mich damit, Probleme aus der Praxis von (Finanz)Dienstleistern und Industriebetrieben sowohl qualifiziert als auch praxistauglich zu lösen. Neben theoretischen bzw. analytischen Untersuchungen steht oft auch die Entwicklung von komplexeren Softwarepaketen oder ganzen (Echtzeit-)Systemen (Hardware + Software + Kommunikationseinrichtungen) im Mittelpunkt, vgl. z. B. den FAUN Neurosimulator, die Derivatesoftware WARRANT-PRO-2, den Software-Agenten PISA und das IWI E-Learning System UbiLearn.

Forschungsprojekte (begonnen zwischen 1989 - 2002)

Vorbemerkung: Die nachfolgende Darstellung ausgewählter Forschungsprojekte, die ich vor Mitte 2002 begonnen habe, erfolgt primär in chronologischer Reihenfolge. Die Reihenfolge stellt also keine Wertung bzgl. der Wichtigkeit oder Bedeutung der Projekte oder der Projektergebnisse dar. Mehrere Projekte werden am Institut für Wirtschaftsinformatik bereits fortgeführt, vgl. z. B. den FAUN Neurosimulator und die Derivatesoftware WARRANT-PRO-2. Für andere Projekte ist eine Wiederaufnahme kurz-, mittel- oder langfristig geplant, vgl. z. B. WARRANT-PRO-1.

Im Rahmen meiner Diplomarbeit war ich in den Jahren 1989 und 1990 als Werkstudent und Projektmitarbeiter am Institut für Robotik und Systemdynamik des Deutschen Zentrums für Luft- und Raumfahrt (DLR) in Oberpfaffenhofen tätig (Abteilung von Prof. Well, jetzt Universität Stuttgart). Zur Lösung des gestellten Kollisionsvermeidungsproblems zwischen einem Flugzeug und einem Lenkflugkörper habe ich mich umfassend in die dynamische Spieltheorie -- eine Verallgemeinerung sowohl der Optimalsteuerung als auch der klassischen Spieltheorie -- eingearbeitet und die Theorie weiterentwickelt. Optimale Rückkopplungssteuerungen können nur mit Hilfe der Lösung der Jacobi-Hamilton-Isaacs-Bellman-Gleichung (JHIB-Gleichung), einer im allgemeinen nichtlinearen partiellen Differentialgleichung erster Ordnung, gewonnen werden. Die dynamische Spieltheorie liefert die Randbedingungen und inneren Verheftungsbedingungen für die Lösungsmannigfaltigkeit der JHIB-Gleichung. Die Charakteristikenmethode für partielle Differentialgleichungen erster Ordnung führt auf anspruchsvolle, stark nichtlineare Mehrpunkt-Randwertprobleme für gewöhnliche Differentialgleichungssysteme, die ich mit einem problemangepaßten Homotopieverfahren für das Mehrfachschießverfahren numerisch gelöst habe.

Nach Abschluß des Studiums habe ich das Angebot von Herrn Prof. Bulirsch gerne angenommen, als Doktorand und verantwortlicher Drittmittelprojektmitarbeiter in seine Arbeitsgruppe einzutreten. Zwischen 1990 und 1995 war ich im DFG-SFB Transatmosphärische Flugsysteme, im DFG-SPP Anwendungsbezogene Optimierung und Steuerung und im FORTWIHR (Bayerischer Forschungsverbund für technisch-wissenschaftliches Hochleistungsrechnen) tätig, wobei alle Projekte multidisziplinär in enger Zusammenarbeit mit verschiedenen außeruniversitären und universitären Kooperationspartnern durchgeführt wurden. Es ist mir gelungen, die dynamische Spieltheorie auf die robuste Optimalsteuerung zu übertragen und auf sehr komplizierte Steuerungsprobleme mit Unsicherheiten anzuwenden (Dissertation). Beispielsweise wurde ein autonomes Echtzeitkollisionsvermeidungssystem für Kraftfahrzeuge mit der Siemens AG, München, soft- und hardwaremäßig entwickelt, 1995 zum Patent angemeldet und 1998 patentiert. Die Steueralgorithmen werden mit neuronalen Netzen (Perzeptrons) gelernt. Kommt einem Normalfahrer auf der Autobahn ein Falschfahrer (Geisterfahrer) entgegen, soll das System so lenken und bremsen oder beschleunigen, daß es den minimalen Abstand zum Falschfahrer maximiert. Die Fahrbahn soll dabei, wenn möglich, nicht verlassen werden. Auf Grund von Panik oder Lebensmüdigkeit läßt sich das zukünftige Verhalten des Falschfahrers nicht vorhersagen. Mit Herrn Prof. Pesch (jetzt Universität Bayreuth) wechselte ich 1995 auf eine C1-Habilitationsstelle an die TU Clausthal.

Motiviert durch das Syntheseproblem für die JHIB-Gleichung beschäftige ich mich seit 1996 intensiv mit der nichtlinearen, multivariaten Approximation und mit dem überwachten Lernen mit neuronalen Netzen. Während meines fünfmonatigen Lehr- und Forschungsaufenthalts an der University of California San Diego (Arbeitsgruppe Prof. Gill) wurde 1997 der Grundstein des von mir konzipierten und entwickelten, neuartigen Neurosimulators FAUN (Fast Approximation with Universal Neural Networks) gelegt. In der aktuellen Beta-Version FAUN 0.3 werden zum Lernen SQP- und GGN-Hochleistungsoptimierungsverfahren eingesetzt. Matrixalgorithmen zur Berechnung des Approximationsfehlers und der partiellen Ableitungen des Approximationsfehlers nach den wählbaren Parametern stellen die Grundlage zur Nutzung hardwareoptimierter, sehr effizienter Programmbibliotheken der numerischen linearen Algebra dar, wie sie auf allen Rechnern verfügbar sind. Für verschiedene Hochleistungsrechner und auch große, inhomogene, dezentrale UNIX-ClusterHabilitationsschrift
wurden sehr effiziente grob granular parallelisierte, fein granular parallelisierte und vektorisierte FAUN Versionen entwickelt. Diese FAUN Versionen nutzen PVM bzw. parallelisierte und vektorisierte BLAS-Bibliotheken. Beispielsweise nutze ich mit FAUN 0.2-PVM standardmäßig einen ,,virtuellen Parallelrechner`` mit ca. 50 Rechnern (2 SUN Enterprise Parallelrechner mit 12 bzw. 6 Prozessoren in Clausthal-Zellerfeld und Greifswald, 10 SUN Workstations in Clausthal-Zellerfeld und München, 18 IBM Workstations mit teils 2 Prozessoren in Clausthal-Zellerfeld und ca. 20 Linux-PCs in Clausthal-Zellerfeld) und mit insgesamt ca. 80 Prozessoren. Theorie, Implementierung und Rechenergebnisse für verschiedene Anwendungsprobleme sind in meiner ausführlich dokumentiert.

Diverse Problemstellungen der empirischen Finanzmarktanalyse können mit FAUN hervorragend bearbeitet werden. In Zusammenarbeit mit der Dresdner Bank AG, Frankfurt, und der Market-Maker Software AG, Kaiserslautern, werden die Einsatzmöglichkeiten empirischer, marktkonformer Optionspreismodelle basierend auf neuronalen Netzen untersucht. Deterministische Optionspreismodelle, wie z. B. das berühmte, 1997 mit dem Nobelpreis ausgezeichnete Modell von Black und Scholes, sind in der Praxis teilweise zu ungenau. Das neuartige, empirische Modell basiert auf der Idee, den Optionspreis als komplizierte Funktion von 4 Eingabegrößen zu approximieren. Hunderte, tausende bzw. zehntausende von Mustern werden durch Beobachtung der Kurse, d. h. der Marktpreise gehandelter Optionen, generiert. Die schwierige Herausforderung ist, daß die Approximationsfunktion die marktkonformen Preise nicht nur möglichst genau erlernen soll, sondern daß auch sinnvolle Werte für erste und zweite partielle Ableitungen der Approximationsfunktion (,,Optionsgriechen``) benötigt werden. Mit FAUN ist es erstmals gelungen, sehr gute empirische Modelle für Aktien- und Devisenoptionen zu berechnen. Der Verkäufer einer Option kann das empirische Modell zum in der Regel üblichen Hedging seiner Position, d. h. zum Aufbau von Gegenpositionen zur weitestgehenden Neutralisierung seines Risikos, nutzen. Der Käufer einer Option kann mit Hilfe des empirischen Modells teure Optionen von billigen Optionen unterscheiden und auch die Preise von Optionen mit unterschiedlicher Ausstattung vergleichen. Für Optionsscheine können teure Phasen von billigen Phasen unterschieden werden. Ferner können Anomalien und Arbitragemöglichkeiten an Finanzmärkten weitgehend automatisch erkannt werden. In Zusammenarbeit mit der Dresdner Bank AG wird zur Zeit die professionelle Windows-Software WARRANT-PRO-1 implementiert. Die Rechenzeit eines modernen PCs für ein gutes, empirisches Modell liegt im vertretbaren Rahmen von wenigen Minuten. WARRANT-PRO-1 und WARRANT-PRO-2 sollen mittelfristig zu einer professionellen Plattform zur Wertbestimmung, zum Design und zur Optimierung von Optionen und Optionsscheinen verbunden werden.

Zur Entwicklung von Zinsprognosemodellen basierend auf Zeitreihen effektiver Pfandbriefrenditen und ausgewählter Indikatoren (technischer Modellansatz) wird ebenfalls der Neurosimulator FAUN verwendet. Die Auswahl der Indikatoren, die geeignet aggregierte Größen aus den Zeitreihen der Pfandbriefrenditen sind, ist sehr schwierig. In die mehr als 20 untersuchten Prognoseansätze gehen viele neue Ideen, aber auch in der Literatur beschriebene gute und schlechte Erfahrungen, ein. Die erforderliche FAUN-Rechenzeit von CPU-Jahren für die sehr umfangreichen Vergleichsrechnungen wurde durch das PVM-Mantelprogramm für FAUN innerhalb von zwei Monaten verfügbar. Alternativ wurde 1999 und 2000 die FAUN-Anbindung einer SYNAPSE 3 auf einem Windows-NT PC untersucht. Der Neurorechner, besser Matrixrechner, SYNAPSE 3 ist ein preisgünstiges PCI-Coprocessor-Board, das auf einem PC-Arbeitsplatzrechner eine erstaunliche Rechenleistung ermöglicht. Die Forschungen mit der SYNAPSE 3 werden von der Herstellerfirma MediaInterface Dresden GmbH seit 1998 gefördert. Für die bisher mit FAUN gelösten Probleme erwies sich FAUN 0.2-SYNAPSE 3 jedoch als ungeeignet, da die Rechengenauigkeit der SYNAPSE 3 für die Optimierungsverfahren in FAUN zu gering war. Die Approximationsfunktionen des zur Zeit verwendeten Modellansatzes besitzen jeweils 12 Eingabegrößen und liefern gute Prognosen der effektiven Renditen von Pfandbriefen mit 1, 4 bzw. 10 Jahren Restlaufzeit auf Sicht von 3, 6 und 12 Monaten. Die Prognosen können benutzerfreundlich ausgewertet werden, da sie auch für das Tabellenkalkulationsprogramm Excel unter Windows implementiert sind. Die Sparkasse Goslar/Harz, die das Projekt finanziell fördert, nutzt das aktuelle Modell seit Juli 2000 zur Unterstützung des Zinsmanagements, d. h. zur Optimierung der Zeitpunkte und Horizonte der Refinanzierung oder Geldanlage, um Kosten zu sparen bzw. zusätzliche Erträge zu generieren.

Seit 1993 beschäftige ich mich mit der Modellierung mikro- und makroökonomischer Kapitalflüssenumerischen Simulation, Optimalsteuerung und Optimierung. Beispielsweise wurden die konjunkturabhängig optimale Kapitalversorgung eines Unternehmens (Mikroökonomie) und die optimale Angleichung der Lebensverhältnisse in Ost- und Westdeutschland nach der Wiedervereinigung (Makroökonomie) berechnet. Im ersten Problem wurde ausgehend von einem sehr einfachen Modell mit Hilfe der Analyse optimaler Lösungen, die mit einem direkten Kollokationsverfahren berechnet wurden, schrittweise ein realitätsnahes Unternehmensmodell entwickelt. In diesem Unternehmensmodell kann durch variable Zinssätze und eine variable Inflationsrate insbesondere ein Konjunkturverlauf berücksichtigt werden. Reale, nicht differenzierbare Zins- und Inflationsverläufe können für Rechnungen mit dem Kollokationsverfahren verwendet werden. Für Rechnungen mit der Mehrzielmethode müssen die Konjunkturdaten analytisch approximiert werden. Die komplexe Schaltstruktur für die vier linearen Steuerungen, die zehn linearen Steuerbeschränkungen genügen müssen, konnte mit dem Kollokationsverfahren vorhergesagt werden, da die sehr genaue Schätzung der adjungierten Variablen eine Analyse nach dem Minimumprinzip ermöglichte. Anschließend wurde die Optimalität der mit der Mehrzielmethode erhaltenen Lösung mit Hilfe der Kuhn-Tucker-Bedingungen verifiziert. Die optimalen Lösungen geben Einblick in den optimalen Eigen- und Fremdkapitaleinsatz, die optimale Lagerhaltung und die optimale Beschäftigung für verschiedene konjunkturelle Rahmenbedingungen und Planungshorizonte. Ferner wurden für das Unternehmen günstige und ungünstige Konjunkturverläufe berechnet. Im zweiten Beispiel werden der Aufbau von Kapitalstock und Vermögen in den neuen Bundesländern und die Angleichung der Lebensverhältnisse mit einem dynamischen Investitionsmodell untersucht. Numerisch werden zuerst die Parameter des Modells mit empirischen Daten identifiziert. Dann wird das zu Grunde liegende Optimalsteuerungsproblem mit einem direkten Optimierungsverfahren (Kollokation mit SQP-Verfahren) numerisch gelöst. Der Konflikt zwischen Lohn- und Kapitalstockangleichung und der Einfluß diverser staatlicher Subventionen wird untersucht.
mit gewöhnlichen und partiellen Differentialgleichungen und der anschließenden

FAUN kann ferner universell zur Synthese von Lösungsmannigfaltigkeiten aus charakteristischen Trajektorien eingesetzt werden, wenn partielle Differentialgleichungen erster Ordnung oder zweiter Ordnung vom hyperbolischen oder parabolischen Typ numerisch gelöst werden. Im Rahmen von Projekten im DFG-SFB Transatmosphärische Flugsysteme, im DFG-SPP Anwendungsbezogene Optimierung und Steuerung und im DFG-SPP Echtzeit-Optimierung großer Systeme ist es mir gelungen, autonome Echtzeit-Bordsteuerungen für Raumfähren zu entwickeln, die robust optimal gegen unvorhersehbare, starke Luftdichteschwankungen sind. Für das US-Space-Shuttle wird exemplarisch nachgewiesen, daß die maximale Aufheizung an kritischen Staupunkten von 1700 Grad auf 1200 Grad gesenkt werden kann, wenn das Shuttle durch die Atmosphäre fliegend zur Erde zurückkehrt. Der Hitzeschutzschild wird um mehr als zwei Tonnen leichter und die Nutzlast für die Erdumlaufbahn erhöht sich entsprechend. Die notwendigen Wartungszeiten und Wartungskosten reduzieren sich erheblich. Bemerkenswert ist, daß diese Verbesserung alleine auf der Optimierung der aktuellen Bordsteuerung beruht. Unterstützt durch eine spezielle, graphische Simulationsumgebung wurden hunderte von Rückkehrsimulationen mit verschiedensten Störeinflüssen, wie z. B. Luftdichteschwankungen und ein nicht exakter Deorbitimpuls, durchgeführt. Die Simulationsumgebung ermöglicht auch ein verteiltes Rechnen für Lenkgesetz, die Simulation der Raumgleiterdynamik und die graphische Oberfläche, um die Echtzeitfähigkeit des Lenkgesetzes auf weltraumtauglichen Bordrechnern prüfen zu können (Hardware-in-loop (HIL)-Simulation). Eine interaktive Simulation von Parameterschwankungen und unvorhersehbaren Störeinflüssen ist möglich. Die Simulationen belegen die Leistungsfähigkeit der synthetisierten, robust optimalen Echtzeit-Steuerungen. Bei der Entwicklung neuer Raumgleiter, -fähren und -kapseln ist es möglich, das Steuerungsprinzip mit geringen Anpassungen erfolgreich umzusetzen.

Mit der numerischen Lösung partieller Differentialgleichungen zweiter Ordnung habe ich mich im Rahmen von drei Anwendungsproblemen intensiver auseinandergesetzt. Vom Institut für Schweißtechnik und trennende Fertigungsverfahren der TU Clausthal wurden zwei Probleme an mich herangetragen. Durch numerische Simulation wurden erzwungene Schwingungen verschiedener Bondwerkzeuge für das Ultraschall-Wedge-Wedge-Bonden berechnet. Die stationäre und instationäre Simulation wurde dazu genutzt, die Form und die Anregungsfrequenz eines Bondwerkzeugs zu optimieren (FEM-Programmpaket MARC/MENTAT). Mit Hilfe des FEM-Programmpakets ANSYS konnten gute Schweißparameter für das Laserstrahlschweißen von neuen Magnesiumlegierungen ermittelt werden. Die schwierige Modellierung erfolgte 2- und 3-dimensional und es wurden umfangreiche stationäre und instationäre Simulationen durchgeführt und ausgewertet. Im dritten Anwendungsproblem stehen zu optimierende, europäische 2-Schwellen-Optionen im Mittelpunkt, die an den Finanzmärkten eine wichtige Rolle spielen. Mathematisch wird die Lösung der Black-Scholes-Gleichung, einer partiellen Differentialgleichung zweiter Ordnung vom Diffusionstyp, mit Hilfe der diskretisierten Anfangs-Randbedingungen optimal gesteuert, so daß der resultierende Optionspreis ein gewünschtes Verhalten aufweist. Es kann zum Beispiel gewünscht sein, daß die resultierende Option im relevanten Restlaufzeit/Basisobjektpreis-Bereich ein weitgehend konstantes Delta aufweist. Für viele verschiedene Anfangs-Randbedingungen muß die Black-Scholes-Gleichung effizient, aber ausreichend genau, gelöst werden (adaptives Finite-Differenzen-Verfahren). Die resultierenden nichtlinearen, restringierten Optimierungsprobleme werden mit einem SQP-Hochleistungsoptimierungsverfahren gelöst. Die benötigten Sensitivitäten der Zielfunktion können durch automatisches Differenzieren analytisch bereitgestellt werden. In diesem Kooperationsprojekt mit der Dresdner Bank AG, Frankfurt, soll mittelfristig die leistungsfähige und bedienungsfreundliche Windows-Software WARRANT-PRO-2 entwickelt werden.