openPR Recherche & Suche
Presseinformation

30 Jahre „Datenanalyse und Modellbildung“ in Freiburg

27.10.201712:00 UhrWissenschaft, Forschung, Bildung
Bild: 30 Jahre „Datenanalyse und Modellbildung“ in Freiburg
Bildunterschrift: Siehe Pressemitteilung ()
Bildunterschrift: Siehe Pressemitteilung ()

(openPR) Aus einem fächerübergreifenden Seminar ist ein Wissenschaftliches Zentrum der Albert-Ludwigs-Universität hervorgegangen

---
Mehr Informationen aus Daten gewinnen, komplexe Systeme mit mathematischen Modellen besser beschreiben: Seit 30 Jahren kommen an der Universität Freiburg Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen Disziplinen zusammen, um sich über methodische Fragen quantitativer Forschung auszutauschen – zunächst in einem Seminar, seit 1994 am „Freiburger Zentrum für Datenanalyse und Modellbildung“. Die Jubiläumsfeier findet am Freitag, 3. November 2017 statt.



Die Grundlage für Big Data – das Management und die Analyse großer Datenmengen – bilden die mathematische Statistik sowie die Stochastik, die sich mit Zufall und Wahrscheinlichkeiten beschäftigt. Bei ihrem Einsatz ist Sorgfalt geboten, besonders in der Wissenschaft: „Wenn Forscherinnen und Forscher Programmpakete auf ihre Daten loslassen, um diese mit statistischen Methoden auszuwerten, sollten sie wissen, was diese Programme können und was nicht. Zudem gibt es viele Beispiele für komplexe Systeme, die man erst mit stochastischen Modellen angemessen beschreiben kann – vom Fließverhalten bestimmter Materialien bis zum Geschehen auf dem Finanzmarkt“, sagt Josef Honerkamp. Vor 30 Jahren brachte der mittlerweile emeritierte Physikprofessor der Universität Freiburg erstmals Kolleginnen und Kollegen aus Mathematik, Physik, Chemie, Medizin sowie Wirtschafts- und Forstwissenschaften zusammen, damit sie sich in einem gemeinsamen Seminar mit solchen methodischen Fragen befassen. Es war die Geburtsstunde des „Freiburger Zentrums für Datenanalyse und Modellbildung“ (FDM), das schließlich 1994 als Wissenschaftliches Zentrum der Albert-Ludwigs-Universität gegründet wurde.

VIDEO: Josef Honerkamp zu Datenanalyse und Modellbildung
https://www.pr.uni-freiburg.de/pm/online-magazin/vernetzen-und-gestalten/30-jahre-datenanalyse-und-modellbildung-in-freiburg

In den Anfangsjahren war dieser fächerübergreifende Ansatz neu, und die Vorteile für alle Beteiligten wurden schnell sichtbar: Die Mathematik konnte durch neue Fragestellungen aus unterschiedlichen Anwendungsbereichen ihre Methoden verfeinern, die anderen Disziplinen erzielten Fortschritte, weil sie mithilfe der Statistik und Stochastik mehr Informationen aus ihren Daten ziehen und komplexe Systeme mit mathematischen Modellen besser beschreiben konnten. Inzwischen habe sich viel getan, sagt der Stochastiker Prof. Dr. Peter Pfaffelhuber, Direktor des FDM: „Seit der Gründung unseres Zentrums haben wir eine Quantifizierung in vielen Anwendungsbereichen erlebt, und interdisziplinäre Ansätze sind aus der Wissenschaftslandschaft nicht mehr wegzudenken.“ Vor allem im vergangenen Jahrzehnt habe sich das FDM dynamisch entwickelt, nicht zuletzt dank Berufungen quantitativ arbeitender Wissenschaftler an unterschiedliche Fakultäten.

Fünf Themenfelder im Fokus

Im Mittelpunkt der Arbeit am FDM stehen derzeit fünf Themenfelder. Die Klinische Epidemiologie befasst sich mit der Verbreitung und dem Verlauf von Krankheiten und deren verursachenden Faktoren in der Bevölkerung, die Finanzmarktforschung widmet sich der Modellierung ökonomischer Chancen und Risiken. Die Populationsbiologie untersucht die Struktur und Entwicklung tierischer und pflanzlicher Fortpflanzungsgemeinschaften, und die Systembiologie arbeitet an der dynamischen Modellierung zellulärer Prozesse. Die Statistik stochastischer Prozesse schließlich untersucht die mathematischen Grundlagen der im Zentrum angesiedelten Anwendungen. „Gerade weil die Anwendungsbereiche so verschieden sind, ist es besonders wichtig, einen gemeinsamen methodischen Kern zu pflegen“, betont Pfaffelhuber. „Die ursprüngliche Vision, dass ein Platz des Austauschs zu den Themen Datenanalyse und Modellbildung viele Wissenschaftler anzieht, hat sich in den vergangenen 30 Jahren bestätigt.“

www.fdm.uni-freiburg.de

Fallbeispiel 1: Klinische Epidemiologie – wie das Grippemittel Tamiflu wirkt

Viele Staaten lagern das Grippemedikament Tamiflu ein, um sich auf eine mögliche Pandemie vorzubereiten – wie gut es jedoch wirkt, ist umstritten. Eine von der Pharmaindustrie in Auftrag gegebene Beobachtungsstudie verglich den Krankheitsverlauf von Patientinnen und Patienten mit beziehungsweise ohne Behandlung mit Tamiflu und kam zum Ergebnis, dass das Medikament die Überlebenschancen erhöht. Um die Studie überprüfen zu können, erhielt ein Team um Prof. Dr. Martin Wolkewitz vom Institut für Medizinische Biometrie und Statistik der Universität Freiburg einen Teil der Daten. „Wir konnten aufdecken, dass statistische Fehler zu verzerrten Ergebnissen geführt haben – verursacht beispielsweise durch unrealistische Modellannahmen“, sagt Wolkewitz. „Nach unseren Resultaten hat Tamiflu zwar einen positiven Effekt: Wer damit behandelt wurde, konnte das Krankenhaus im Durchschnitt schneller verlassen. Eine Auswirkung auf die Sterblichkeit konnten wir aber nicht bestätigen.“ Den Autorinnen und Autoren der Studie seien die Fehler aber keineswegs bewusst gewesen: Viele Forscher wissen schlichtweg nicht um die Feinheiten statistischer Modelle, berichtet Wolkewitz. „Gerade bei emotional aufgeladenen Themen wie etwa in der Medikamentenforschung können wir mit den rationalen Argumenten der Statistik dabei helfen, Aufklärungsarbeit zu leisten.“

Fallbeispiel 2: Finanzmarktforschung – wie Banken Risiken besser einschätzen können

Banken müssen Eigenkapital als Sicherheit hinterlegen, um für mögliche Verluste gerüstet zu sein. Wie hoch diese Sicherheit sein muss, hängt davon ab, wie hoch das Risiko der Kapitalanlagen ist. „Ziel einer Bank ist es, die angemessene Kapitalmenge möglichst gut zu schätzen – nicht zu viel und nicht zu wenig“, erklärt der Finanzmathematiker Prof. Dr. Thorsten Schmidt aus der Abteilung für Mathematische Stochastik der Universität Freiburg. Dafür wird das gängige Risikomaß „Value at Risk“ (VaR) herangezogen: Es gibt den Betrag an, den die möglichen Verluste einer Bank mit einer Wahrscheinlichkeit von beispielsweise 95 oder 99 Prozent nicht überschreiten. Die Banken versuchen dabei, auf der Basis historischer Daten zu den Kursverläufen ihrer Kapitalanlagen abzuschätzen, welchen Schwankungen diese in der Zukunft unterworfen sein werden. „Allerdings zeigt sich bei den bestehenden Verfahren, dass die tatsächliche Verlustrate höher war als erwartet“, sagt Schmidt. Gemeinsam mit Kolleginnen und Kollegen will der Finanzmathematiker Abhilfe schaffen: „Wir arbeiten daran, das Verfahren so zu verfeinern, dass Banken die Risiken ihrer Kapitalanlagen besser einschätzen können – und möchten damit einen Beitrag dazu leisten, die Bankenwelt etwas sicherer zu machen.“

Nicolas Scherger

Weitere Informationen:

Jubiläumsfeier
Die Feier zum 30-jährigen Bestehen des Seminars findet am Freitag, 3. November 2017, von 13:30 bis 17:30 Uhr im Mathematischen Institut, Eckerstraße 1, Raum 404 statt. Nach Redebeiträgen von Rektor Prof. Dr. Hans-Jochen Schiewer und Prof. Dr. Josef Honerkamp folgen Fachvorträge von Prof. Dr. Leo Held, Biostatistiker der Universität Zürich/Schweiz, Prof. Dr. Rainer Dahlhaus, Mathematiker der Universität Heidelberg, und Prof. Dr. Josef Teichmann, Finanzmathematiker der Eidgenössischen Technischen Hochschule Zürich/Schweiz. Alle Interessierten sind herzlich eingeladen. Der Eintritt ist kostenlos, eine Anmeldung ist nicht erforderlich.

Bildunterschrift:
Das „Freiburger Zentrum für Datenanalyse und Modellbildung“ ist in Räumen des Mathematischen Instituts der Universität Freiburg beheimatet.
Foto: Sandra Meyndt

Weitere Informationen:
- https://www.pr.uni-freiburg.de/pm/online-magazin/vernetzen-und-gestalten/30-jahre-datenanalyse-und-modellbildung-in-freiburg

Quelle: idw

Diese Pressemeldung wurde auf openPR veröffentlicht.

Verantwortlich für diese Pressemeldung:

News-ID: 977018
 458

Kostenlose Online PR für alle

Jetzt Ihren Pressetext mit einem Klick auf openPR veröffentlichen

Jetzt gratis starten

Pressebericht „30 Jahre „Datenanalyse und Modellbildung“ in Freiburg“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von Albert-Ludwigs-Universität Freiburg im Breisgau

Bild: Illegale Jagd auf Elefanten in OstafrikaBild: Illegale Jagd auf Elefanten in Ostafrika
Illegale Jagd auf Elefanten in Ostafrika
Internationales Forscherteam hat Muster von Wilderei in Tansania aufgedeckt --- Eine internationale Forschergruppe hat Luftaufnahmen eines Naturreservats in Ostafrika analysiert und dabei Muster der illegalen Jagd auf Elefanten aufgedeckt. Die Analyse zeigt, dass sich auf dem Höhepunkt der Wilderei-Krise in Tansania von 2013 bis 2015 eine Häufung von Elefantenkadavern in der Nähe von drei Rangerstationen befand. Das lege an manchen Orten in der Region Ruaha-Rungwa eine Verbindung zwischen den Wilderern und Parkaufsehern nahe. „Es gibt schon …
Bild: Anselm Kiefer erhält EhrendoktorwürdeBild: Anselm Kiefer erhält Ehrendoktorwürde
Anselm Kiefer erhält Ehrendoktorwürde
Die Philologische und Philosophische Fakultät der Universität Freiburg würdigen das Werk des Künstlers --- Die gemeinsame Kommission der Philologischen und Philosophischen Fakultät der Universität Freiburg hat Prof. Anselm Kiefer die Ehrendoktorwürde verliehen. Sie würdigt damit einen der bedeutendsten deutschen Künstler der Gegenwart. „Die Albert-Ludwigs-Universität ehrt mit Anselm Kiefer einen kritischen Künstler, dessen Werke notwendige gesellschaftliche Debatten angestoßen haben. Auf dem Feld der bildenden Kunst erfüllt er damit einen An…

Das könnte Sie auch interessieren:

Whitepaper zu Predictive Maintenance mit R
Whitepaper zu Predictive Maintenance mit R
… Maintenance. Open Source R zur Umsetzung von Data Mining und Predictive Maintenance Die Basis für Predictive Maintenance ist das Datenmanagement, die Analyse und die Modellbildung: Die richtige Analyse der richtigen Daten ist der entscheidende Schlüssel für Predictive Maintenance. „Unsere Erfahrungen aus der Praxis zeigen, dass viele Daten bereits …
Bild: SENSOR, OPTO und IRS²: Vernetzungsplattform für internationales FachpublikumBild: SENSOR, OPTO und IRS²: Vernetzungsplattform für internationales Fachpublikum
SENSOR, OPTO und IRS²: Vernetzungsplattform für internationales Fachpublikum
… SENSOR Kongress auf mechanische Sensoren, Durchfluss-, Wireless-, Gas- und Bio-Sensoren. Neben den Sensorelementen nimmt die zugehörige Messtechnik, also Elektronik, Signalauswertung und Modellbildung, einen breiten Raum ein. Der OPTO Kongress, geleitet von Professor Elmar Wagner (ehemals Fraunhofer-Institut IPM, Freiburg) fokussiert auf die Nutzung der …
GBS modelliert PR-Struktur für HumanConcepts
GBS modelliert PR-Struktur für HumanConcepts
Anbieter von Software zur Modellbildung im Personalwesen geht im deutschsprachigen Raum in die Kommunikationsoffensive Essen, 24. Oktober 2006. Die Agentur GBS – Die Publicity Experten organisiert seit Oktober 2006 die gesamte Presse- und Öffentlichkeitsarbeit für die deutschen Niederlassung des führenden Anbieter von Software zur Visualisierung von …
Maschinelles Lernen auf vertrauenswürdigen Daten: QuinScape informiert über Dream Team RapidMiner + Talend
Maschinelles Lernen auf vertrauenswürdigen Daten: QuinScape informiert über Dream Team RapidMiner + Talend
… Budapest und London. RapidMiner bietet mehr als 1500 Operatoren für alle Aufgaben der „Wissensentdeckung aus Datenbanken“. Mit seinen integrierten Fähigkeiten zur Datenvorverarbeitung, Modellbildung und Einbettung in bestehende IT-Architekturen ist RapidMiner ein leistungsstarkes Werkzeug z. B. für Customer Analytics, Operational und Risk Analytics. Das …
Wissenschaft zum Anfassen und Mitmachen
Wissenschaft zum Anfassen und Mitmachen
… die Zukunft des Lernens aussehen könnte. Das TIS der Universität Hamburg zeigt am Stand ein E-Learning Modul (als Demoversion) zum Thema „Einführung in die Modellbildung und Simulation“, das den Besuchern erlaubt an einem implementierten Modell Veränderungen vorzunehmen und die Auswirkungen selber zu analysieren. Modellbildung und Simulation werden von …
Bild: Elektronisches Management von FahrzeugantriebenBild: Elektronisches Management von Fahrzeugantrieben
Elektronisches Management von Fahrzeugantrieben
… und Fahrzeug notwendig. Ohne geeignete Simulationsverfahren geht heute nichts mehr. Die Tagung „Elektronisches Management von Fahrzeugantrieben – Elektronik Architektur, Modellbildung und Steuerung von Verbrennungsmotoren, Getriebe- und Hybridantrieben“ am 8.–9.4.2014 in Frankfurt/Main gibt eine Übersicht zur Architektur und Funktionsentwicklung von …
Münchner Technologietage Computer Aided Engineering (CAE)
Münchner Technologietage Computer Aided Engineering (CAE)
… und Produktionsparameter auf die Produkteigenschaften zu ziehen. Dies zeigt in beeindruckender Weise wie viel Potential in solchen innovativen Konzepten zur automatisierten, statistischen Modellbildung steckt. Michael Probst: "Auch dieses Jahr haben wir ein Programm mit hochkarätigen Referenten zusammengestellt und hoffen Interessenten und Kunden fundierte Einblicke …
Bild: Jetzt NEU bei der Geekakademie - Inhouse Workshops und Schulungen zu den Bereichen Datenanalyse und Big DBild: Jetzt NEU bei der Geekakademie - Inhouse Workshops und Schulungen zu den Bereichen Datenanalyse und Big D
Jetzt NEU bei der Geekakademie - Inhouse Workshops und Schulungen zu den Bereichen Datenanalyse und Big D
… Methoden Management und Verarbeitung von Big Data (etwa Hadoop, Map-Reduce, NoSQL) Methoden des Maschinellen Lernens (etwa Bayes, Clusteranalyse, Support Vector Maschinen)Modellbildung, Analyse und Interpretation Modellgestützte Optimierung Soft Skills - Kommunikation an Schnittstellen Haben auch Sie einen entsprechenden Bedarf an Weiterbildung identifiziert? Gerne …
Bild: Vom Modell bis zur Implementierung: Modernes Antriebsmanagement für Verbrennungs- und HybridmotorenBild: Vom Modell bis zur Implementierung: Modernes Antriebsmanagement für Verbrennungs- und Hybridmotoren
Vom Modell bis zur Implementierung: Modernes Antriebsmanagement für Verbrennungs- und Hybridmotoren
… Fahrzeugantrieben“ am 24.–25.10.2012 in Frankfurt/Main gibt zunächst eine Übersicht zur Architektur und Funktionsentwicklung von Motorsteuerungen und zum aktuellen Stand der Modellbildung und Simulation von Verbrennungsmotoren. Mehrere Beiträge beschreiben Methoden zur effizienten Vermessung und Modellbildung des stationären und dynamischen Verhaltens von …
Bild: Projekt PAC (Process Analytical Chemistry) gestartetBild: Projekt PAC (Process Analytical Chemistry) gestartet
Projekt PAC (Process Analytical Chemistry) gestartet
… zur Quantifizierung, Anomalie Detektion, Detektion von Prozesskonvergenz, Vorhersage-Modelle. Experten des SCCH forschen in diesem Projekt an den Themen Datenanalyse und Modellbildung. Mehr Informationen zum Projekt finden Sie auf den folgenden Webseiten: FFG: http://www.ffg.at/content.php?cid=435&sid=412 FLLL: http://www.flll.jku.at/node/101
Sie lesen gerade: 30 Jahre „Datenanalyse und Modellbildung“ in Freiburg