Sie sind hier: marburgnews >
Heute ist Montag, 13. July 2020

Text von Dienstag, 8. Mai 2007

> b i l d u n g<
  
 Mengen und Müll: Modelle zur Datenverarbeitung 
 Marburg * (atn/pm)
"Aus riesigen Datensätzen die essentielle Information herausziehen - darin besteht unsere Kunst", beschrieb Prof. Dr. Stephan Dahlke seinen neuen Job. Bisher ist er numerischer Mathematiker am Fachbereich Mathematik und Informatik der Philipps-Universität. Seit kurzem ist Dahlke auch Koordinator des neuen Schwerpunktprogramms der Deutschen Forschungsgemeinschaft (DFG) "Mathematische Methoden zur Extraktion quantifizierbarer Information aus komplexen Systemen".
Das Programm ist eins von nur drei mathematischen Schwerpunkt-Programmen der DFG. Gemeinsam mit sieben weiteren Antragstellern aus Deutschland und der Schweiz rechnet Dahlke während der ersten dreijährigen Förder-Periode mit Mitteln in Höhe von rund 5 Millionen Euro. Eine zweite Förder-Periode wird sich anschließen. Zusätzliche Mittel stehen für die Wahrnehmung der Koordinationsfunktion durch Dahlke zur Verfügung.
"Wissenschaftler und andere Anwender haben mittlerweile nicht mehr das Problem, Daten automatisch zu erfassen und zu speichern, sondern vielmehr, die oft hochkomplex strukturierten Datenmengen sinnvoll zu analysieren", erklärte der Mathematiker.
Video-Aufzeichnungen, bei denen jedes einzelne Bild einer Analyse unterzogen werden soll, gehören zu seinem Themenfeld ebenso wie Aufgabenstellungen aus den Bereichen Data Mining oder Computational Finance: "Stellen Sie sich vor, Sie haben ein riesiges Portfolio aus Aktien, die sich im Zeitverlauf alle unterschiedlich entwickeln, und Sie müssen daraus eine Gewinn-Erwartung abschätzen."
Vor verwandte Probleme seien zum Beispiel auch Physiker gestellt: "Will man ein System mit sehr vielen Elementarteilchen modellieren, benötigt man die Grundgleichung der Quantenmechanik: die Schrödinger-Gleichung", erklärt Dahlke. "Bei so vielen Teilchen wird die Schrödingergleichung jedoch hochkomplex und ist mit traditionellen Rechenverfahren praktisch nicht mehr handhabbar."
Ein Ende des Komplexitätswachstums sei ohnehin nicht abzusehen: "Die ständig wachsende Rechnerleistung spornt natürlich auch dazu an, immer realistischere und damit komplexere mathematische Modelle zu formulieren."
Ziel von Dahlke ist daher die Entwicklung "langfristig tragfähiger Lösungsansätze", die auch die "konzeptionellen Querverbindungen" zwischen den verschiedenen Anwendungsmöglichkeiten "systematisch ausnutzen". Zum einen geht es dabei um Quantifizierung der jeweiligen Komplexität, also um eine präzise Aussage über den Schwierigkeitsgrad eines Unterfangens, die wiederum hilft, geeignete Lösungsansätze zu identifizieren. Zum anderen geht es um die Entwicklung konkreter Rechenverfahren, die auf Super-Computern implementiert werden. Sie sollen in überschaubarer Zeit zu Resultaten führen.
"Erproben werden wir unsere Ergebnisse auf dem Marburger Super-Computer", sagte Dahlke weiter. Der "MArburger RechenCluster" MARC, der unter anderem auch auf seine Initiative hin errichtet worden war und erst im Januar ausgebaut worden ist. Dieser Rechner bietet mittlerweile eine Leistung von bis zu 2,5 Teraflops.
Dahlke wird die Arbeit von Wissenschaftlern der Rheinisch-Westfälischen Technischen Hochschule (RWTH) in Aachen, der Rheinischen Friedrich-Wilhelms-Universität Bonn, des Leipziger Max-Planck-Instituts für Mathematik in den Naturwissenschaften, der Technischen Universität Darmstadt, der Universität Kiel, der TU Berlin, der ETH Zürich und zahlreicher weiterer Standorte koordinieren. Unter den beteiligten Forschern befinden sich unter anderem Numeriker, Stochastiker und Approximationstheoretiker.
Der genaue Umfang der Gelder, die nach Marburg fließen werden, hängt von der nun anstehenden Bewilligung einzelner Teilprojekte durch die DFG ab. "Zwei wissenschaftliche Mitarbeiterstellen sollten aber auf jeden Fall drin sein", erwartet Dahlke.
 
 Ihr Kommentar 


Bildung-Archiv






© 2007 by fjh-Journalistenbüro, D-35037 Marburg