Vor ein paar Tagen ging die “International Supercomputing Conference” (ISC) zu Ende. Für mich ist diese “Konferenz” ein seltsames Zwitterwesen. Sie ist nämlich nicht wie andere wissenschaftliche Konferenzen auf den wissenschaftlichen Austausch fokussiert, sondern zeigt eher einen Messecharakter. So gibt es denn neben Postersession und Fachvorträgen eine Halle mit Messeständen, Vorträge der Hersteller, vertrauliche Runden unter Nondisclosure Agreements und sehr, sehr viel Nerdtalk. Nach Jahren an der Frankfurter Messe und einer coronabedingten Unterbrechung, die ein rein virtuelles Format aufwies, fand sie dieses Mal nach längerer Zeit wieder in Hamburg statt.
Viele Teilnehmer äußerten, dass es gut tat, sich nach so langer Zeit endlich wieder von Angesicht zu Angesicht zu unterhalten. Dem kann ich mich nur anschließen, auch wenn tausend maskenlose Leute doch eine zu optimistische Haltung ausstrahlten. Kein Wunder, dass gleich einige SARS-CoV-2 Infektionen beobachtet wurden. Meine Corona-Warn-App zeigt denn auch ein erhöhtes Risiko an – aber Vorsicht und ein Quäntchen Glück zahlten sich aus.
Wie dem auch sei, ich kann von den vielen technischen Neuerungen, die früher oder später ohnehin irgendwo veröffentlicht werden, nicht berichten: erstens dürfte ich nicht, zweitens war ich nicht dabei. Vor lauter Arbeit waren es für mich nur anderthalb Tage. Aber die hatten es in sich: Wie ihr wisst, interessiert mich eher die Softwareseite, weshalb ich mich vom Trend zur Containerisierung und Cloudcomputing (beides bald hier mal Thema) habe inspirieren lassen. Und natürlich gab es viele, viele Gespräche sowie neue und alte Kontakte – für so was ist eine Konferenz schließlich da.
Birds of a Feather
Das englische Sprichwort birds of a feather flock together gab für manche Konferenzen, insbesondere im IT-Bereich (dort oft BOF genannt), den Impuls, die Treffen Gleichgesinnter auf Konferenzen ebenso zu benennen und etwas zu formalisieren (man muss das bei der ISC und anderen Konferenzen beantragen, dafür bekommt man eine Eintragung ins Programm und alle Interessierten wissen, wann und wo man sich trifft). Wie ihr euch denken könnt, haben mich zwei Themen besonders interessiert:
- HPCCF – Das Zertifizierungsforum für Lehre im Hochleistungsrechnen. Es war spannend und wir haben viel diskutiert.
Und für mich war das besonders spannend, weil ich den Kontakt verloren habe: Das letzte Jahr war sehr arbeitsintensiv und so waren meine Beiträge dort nahe null. Doch zum Glück ist man nicht alleine: zusammen mit Weronika Filinger (bekannt vor allem für ihre Moocs) habe ich mich “verschworen” wieder mehr Beiträge zu leisten – und möchte bald eine Bachelor- oder Masterarbeit zur Verbesserung des Webinterfaces des eigentlichen Examens, welches das Forum entwickelt, ausloben.
Interessant sind vor allem die extrem unterschiedlichen Vorstellungen rund um das Thema Lehre im HPC-Sektor. Das, was man für leistbar und ideal hält, unterscheidet sich zwischen den Ländern (ein bisschen) und zwischen HPC-Zentren (extrem). Während einige überhaupt keine Kurse bieten (Motto: Wer bei uns rechnen will, soll gefälligst wissen wie!), fokussieren sich die nächsten auf die HPC-ideologischen Aspekte (Motto: Profiling, Optimierung und MPI über (fast) alles!) und wieder andere versuchen ein holistischere Kurspolfolio anzubieten (Motto: Für Anfänger und Fortgeschrittene soll etwas dabei sein und für die Fachwissenschaften auch. – der Erfolg hängt hier wesentlich von der Personalstärke ab, wer hätte das gedacht?). - Außerdem musste ich natürlich ein BOF zum Thema Datenmanagement und “Data Lakes” besuchen! Dort war die Diskussion besonders heiß. Unter anderem wurde wieder einmal ernsthaft die Idee vertreten, das ganze Bemühen um Metadaten, die Datensätzen zugefügt werden sollen (was eigentlich wichtig ist, damit man die Daten wiederfinden und zuordnen kann), sein zu lassen: Es sei ja kein Problem, mit künstlicher Intelligenz die Originalveröffentlichungen zu durchforsten und so einen Index der Daten und ihrer Orte anzulegen. Die Zahl wissenschaftlicher Veröffentlichungen ist enorm. Alleine die Herausforderung, dort Spreu vom Weizen zu trennen, ist enorm und ohne spezifische Kenntnisse eines Fachgebietes nicht immer möglich. Maschinelles Lernen ist dort noch nicht angekommen und ob man seine Hoffnungen in noch nicht entwickelte Technologie legen sollte? Skepsis scheint angebracht.
Was ist vor allem anderen aus all den Diskussionen rund um das wissenschaftliche Datenmanagment der letzten Monate mitnehme, sind vor allem drei Dinge:- Um wirklich Anklang zu finden, braucht es ansprechende Benutzeroberflächen und guten Support.
- Hierzu braucht es Investitionen, damit nicht Insellösungen entstehen, die nur Institution mit viel Personal (=Geld) bereitstellen können und deren Inselcharakter das Problem der Nichtauffindbarkeit noch weiter verschlimmert.
- Es beschleicht mich das Gefühl, dass hierzulande mancher NFDI, dessen Nutzer Hochleistungsrechnen betreiben, überhaupt nicht mit den Betreibern der Infrastruktur in Kontakt sind. Inwieweit mein Gefühl zutreffend ist? Ich weiß es nicht, ich würde gerne mehr dazu erfahren – gerne auch Widerspruch.
Damit kommt der Beitrag selbstverständlich nur dazu, zwei sehr kleine Aspekte der diesjährigen ISC herauszuheben. Wissenschaftlich ist aus meiner Warte(!) nichts zu berichten – ist halt doch eher eine Messe. Vielleicht war jemand von euch dort und mag kommentieren / berichten? Ich würde mich freuen!
Kommentare (2)