"Das NFP 75 hat eine wichtige Rolle dabei gespielt, die Schweizer Wissenschaft an der internationalen Spitze zu halten"
Christian S. Jensen über den aktuellen Stand des NFP 75, über die Synthese und über Big Data im Allgemeinen.
Was ist der aktuelle Gesamtstand des NFP 75?
Der Prozess der Ausarbeitung des NFP 75 begann im September 2014, also vor etwa sechs Jahren. Wir rechneten mit einer zunehmenden Digitalisierung wichtiger gesellschaftlicher und industrieller Prozesse, die weiterhin immer massivere Datenmengen erzeugen würden. Einerseits würden diese Daten, wenn sie richtig genutzt würden, bessere und kostengünstigere Prozesse ermöglichen. Phrasen wie "Daten sind das neue Öl" deuten darauf hin, dass Daten eine neue Ressource sind, aus der substanzielle Werte geschaffen werden können. Auf der anderen Seite stellen die tatsächliche Nutzbarmachung und angemessene Nutzung der wachsenden Datenmengen neue Herausforderungen dar. Das NFP 75 wurde ins Leben gerufen, um Forschung zu ermöglichen, die sich diesen Herausforderungen stellt.Wir stellten uns ein Programm vor, das drei Module umfasste.
Eines bestand darin, die Kernherausforderungen anzugehen, um die Nutzung grosser Datenmengen zu ermöglichen. Dieses rechnergestützte Modul sollte Forschung fördern, um bessere Grundlagen für die Nutzung grosser Datenmengen zu schaffen.Das zweite Modul erkannte die gesellschaftlichen Aspekte von Big Data und zielte damit auf die Erforschung gesellschaftlicher und regulatorischer Herausforderungen ab. Diese beziehen sich zum Beispiel auf die Ethik, darauf, wie erhöhte Personalisierungsmöglichkeiten die der Versicherung innewohnende Solidarität herausfordern, wie die Nutzung grosser Daten geregelt werden sollte und wie neue rechtliche Herausforderungen angegangen werden können, die durch grosse Daten entstehen.
Das letzte Modul wurde entwickelt, um Expertinnen und Experten im Computing-Bereich mit Domänenwissenschaftlerinnen und -wissenschaftlern zusammenzubringen, um Lösungen für Big-Data-Herausforderungen im Kontext spezifischer Anwendungen zu schaffen.
Im Juni 2015 beauftragte der Bundesrat den Schweizerischen Nationalfonds mit der Durchführung des NFP 75. Dies führte dann zu einer Ausschreibung von Forschungsprojekten. Ziel war es, die besten Projekte innerhalb der Module zu finanzieren, die von Mitgliedern der Schweizer Wissenschaftsgemeinschaft vorgeschlagen wurden. Nach einem kompetitiven und sehr selektiven Evaluationsverfahren wurde in den drei Modulen ein Portfolio von 12, 8 und 14 Projekten finanziert. Diese Projekte deckten zwar bei weitem nicht alle Herausforderungen ab, die sich aus Big Data ergaben, doch wurden sie von einem internationalen Gremium als sehr aussichtsreich bewertet, um zu ausgewählten Aspekten signifikante Beiträge zu leisten.
Die Projekte begannen 2017, und alle werden im Laufe von 2020 oder 2021 abgeschlossen.
Wie sehen Ihre Erwartungen an die Projekte aus?
Die Projekte sind – bis auf zwei – noch nicht abgeschlossen. Ich sehe ein beträchtliches Engagement und eine grosse Anstrengung bei allen Projekten. Der rasch wachsende Umfang der Big-Data-Herausforderungen ist so gross, dass die kombinierten Ergebnisse der Projekte Big Data nicht ein für alle Mal "lösen" werden. Es ist oft so, dass jedes Mal, wenn ein Problem gelöst wird, viele neue entstehen.
Ich gehe davon aus, dass jedes Projekt in seinem Bereich wichtige Fortschritte machen wird, wie im Antrag vorgesehen. Ich erkenne auch an, dass nicht alle Projekte ihre ursprünglichen Ziele erreichen werden. Das liegt in der Natur ehrgeiziger Forschung: In einigen Fällen können sich die Ziele als zu hoch erweisen; in einigen Fällen können die Forschenden ihre Ziele neu definieren, wenn sie mehr Erkenntnisse gewinnen; und in einigen Fällen kann es ihnen gelingen, noch höhere Ziele zu erreichen, als sie ursprünglich erwartet hatten. Ich freue mich darauf, alle Abschlussberichte zu lesen.
Höhepunkte des NFP bisher?
Hier möchte ich mich auf das Projekt "ICU-Cockpit: Wenn Rechner die Intensiv- und Notfallmedizin unterstützen" konzentrieren, da dieses Projekt abgeschlossen ist.Dies ist ein Beispiel für ein Projekt im dritten Modul. Es betrifft die Patientensicherheit auf Intensivstationen. Das Projekt wird von Prof. Emanuela Keller vom Universitätsspital Zürich geleitet und es sind Expertinnen und Experten im Computing-Bereich von IBM und der ETH Zürich beteiligt. Anstatt die Fortschritte des Projekts zu erläutern, gebe ich das Wort an Prof. Keller (siehe Links). Dieses Projekt ist ein ausgezeichnetes Beispiel dafür, wie Big Data in einer spezifischen Anwendung umgesetzt werden kann, indem Domänen- und Computing-Spezialistinnen und -Spezialisten zusammenarbeiten. Das Projekt zeigt auch, wie die Forschung auch nach dem Ende eines Projekts weitergeht, hier durch den Übergang zu klinischen Studien und zur tatsächlichen praktischen Anwendung.
Sie haben mit dem Syntheseprozess begonnen. Was können wir von der Synthese erwarten?
Wir haben kürzlich das Format des Syntheseberichts über die Aktivitäten des NFP sowie das Verfahren zur Fertigstellung des Berichts entworfen. Im Juni wurden die Entwürfe vom Schweizerischen Nationalfonds genehmigt. Der Prozess wird im kommenden Winter langsam beginnen und in zwei Jahren abgeschlossen sein. Wir werden einen Wissenschaftsjournalisten oder eine Wissenschaftsjournalistin einbeziehen, um den Bericht gut lesbar zu machen. Insbesondere streben wir einen Bericht an, der sich an eine allgemeine und interessierte Leserschaft richtet. Wir werden die Bedeutung der Themen erklären, die von den Projekten im NFP behandelt wurden, und wie sie angegangen wurden. Auf diese Weise wird sich der Bericht auf Themen oder Herausforderungen stützen, die in den Projekten der drei Module behandelt wurden. Wir hoffen, dass wir Fallstudien behandeln werden, die sich auf alltägliche Aktivitäten des modernen Lebens beziehen und die als Augenöffner dienen können. Wir planen, allgemeine Lehren, Ratschläge und Erkenntnisse aus den Projekten hervorzuheben.
Big Data ist ein sehr vager Begriff. Können Sie uns erklären, was dieser für Sie bedeutet? Wie hat sich Big Data seit der Lancierung des Programms verändert?
Tatsächlich ist Big Data ein vager Begriff, der je nach Kontext unterschiedliche Bedeutungen erhalten hat.
Der Wikipedia-Eintrag beginnt mit: "… Datenmengen, welche beispielsweise zu gross, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten. …" Ich glaube, dass dies eine gute Annäherung an das ist, was Big Data in einem Forschungsumfeld bedeuten. Einigen Berichten zufolge hat sich unsere Fähigkeit, Daten zu speichern, seit den 1980er Jahren alle 40 Monate verdoppelt, und ein IDC-Bericht sagt voraus, dass das globale Datenvolumen bis 2025 160 Zettabytes überschreiten wird.
Während das Zitat als Quellen für die neuen Herausforderungen lediglich die Grösse und Komplexität der Daten nennt, werden als weitere Aspekte häufig das Volumen, die Vielfalt (Diversität), die Geschwindigkeit (Geschwindigkeit der Erstellung) und die Wahrhaftigkeit (Wahrhaftigkeit oder Vertrauenswürdigkeit) der Daten genannt. Ich habe jedoch gesehen, dass in einem Bericht nicht weniger als 42 V erwähnt wurden! Als nächstes deckt das Wikipedia-Zitat (bezieht sich auf die englische Version) nicht die gesellschaftlichen Aspekte von Big Data ab – wie man mit Daten in einer gesellschaftlich angemessenen Art und Weise "umgeht". Dieser wichtige Aspekt wurde als so wichtig erachtet, dass ihm im NFP 75 ein eigenes Modul zugewiesen wurde. Ferner stelle ich fest, dass zunehmend erkannt wird, dass Big Data in verschiedenen Anwendungsbereichen unterschiedliche Herausforderungen bieten. Denn wenn das Endziel eine verantwortungsvolle Wertschöpfung ist, sind Anwendungen wichtig, weil dort die Wertschöpfung tatsächlich stattfindet.All dies zusammengenommen hat der Umfang der Big-Data-Forschung in den letzten fünf Jahren zugenommen, und er wird weiter wachsen.
Wo erwarten Sie die grösste Wirkung von Big Data? Aus der Perspektive eines Forschers? Sie persönlich?
Das sind grosse Fragen. Ich glaube fest an die Agenda für nachhaltige Entwicklung bis 2030, die 2015 von den Vereinten Nationen verabschiedet wurde. Diese Agenda umfasst 17 Ziele der nachhaltigen Entwicklung (SDGs). Ich erwarte, dass die Big-Data-Forschung Beiträge leisten kann, die viele oder alle dieser Ziele fördern werden. Meiner Ansicht nach könnte der Klimawandel eine der drängendsten Herausforderungen sein. Big Data kann uns helfen, den Klimawandel zu verstehen und zu reduzieren sowie die Auswirkungen des Klimawandels zu bewältigen. Dies ist nur ein vages Beispiel. Die Möglichkeiten zur Wertschöpfung aus Daten im Rahmen der SDG sind im Überfluss vorhanden.
Aus meiner eigenen Perspektive freue ich mich immer mehr, dass das NFP 75 so konzipiert wurde, dass es ein gesellschaftliches Modul enthält. Die Informationstechnologie hat einen zunehmenden gesellschaftlichen Einfluss. Für eine Wissenschaftler wie mich ist das grossartig, denn es bedeutet, dass das, was wir tun, von Bedeutung ist. Aber es wird (und sollte!) auch zunehmend gesellschaftliche Fragen darüber aufwerfen, wie sichergestellt werden kann, dass Technologie angemessen eingesetzt wird.
Wie beurteilen Sie die Position der Schweiz in Bezug auf die Forschung und die Anwendungen von Big Data? Die Position des NFP 75?
Das NFP 75 hat das Instrument des Nationalen Forschungsprogramms genutzt, um den Schwerpunkt auf die ganzheitliche Bewältigung der wichtigsten Herausforderungen im Zusammenhang mit Big Data zu legen. Das NFP 75 hat erfolgreich ein Portfolio von Projekten zusammengestellt, die von exzellenten und engagierten Wissenschaftlerinnen und Wissenschaftlern geleitet werden und die alle auf dem neuesten Stand der Technik sind. Zusätzlich zu den spezifischen Ergebnissen, die in den Projekten erzielt wurden, hat das NFP 75 die Forschungslandschaft so gestaltet, dass sich die Wissenschaftlerinnen und Wissenschaftler auch nach Abschluss des NFP 75 weiterhin den Big-Data-Herausforderungen stellen werden. Darüber hinaus haben die Outreach-Aktivitäten des NFP 75 die Aufmerksamkeit auf die Auswirkungen von Big Data auf die Gesellschaft gelenkt. So wurde z.B. Unterrichtsmaterial für die Sekundarstufe zur Verfügung gestellt. Insgesamt hat das NFP 75 eine wichtige Rolle dabei gespielt, die Schweizer Wissenschaft an der internationalen Spitze zu halten, und hat wichtige Schritte unternommen, um die angemessene Nutzung von Grossdaten zum Nutzen der Schweiz zu ermöglichen.
Christian S. Jensen
Christian S. Jensen ist Professor am Department of Computer Science an der Universität Aalborg, Dänemark. Seine Forschung fokussiert auf Daten-Management und -Analyse betreffend räumlich-zeitlicher Daten. Zuvor arbeitete er an den Universitäten von Aarhus, Arizona und Maryland sowie am Hauptsitz von Google in Mountain View, Kalifornien. Er präsidiert die Leitungsgruppe des NFP 75 "Big Data".
- Über diesen Link und den weiteren Link "Das Projekt in einer Minute" auf den jeweiligen Projekt-Unterseiten können die Leserinnen und Leser kurze Videos finden, welche die Ziele der Projekte erklären.
- Projekt "ICU-Cockpit: Wenn Rechner die Intensiv- und Notfallmedizin unterstützen", Prof. Keller