Teil 1: Vorträge der Herbsttagung der Zentren für Kommunikation und Informationsverarbeitung (ZKI)
Gerhard Schneider
Vom Rechenzentrum zum IT-Dienstleister für die Wissenschaft
Gerhard Schneider, Albert-Ludwigs-Universität Freiburg
Rechenzentren stehen unter einem permanenten Veränderungsdruck, da sich die der IT zugrunde liegenden Technologien rasant weiterentwickeln und damit nicht nur neue Nutzungsszenarien entstehen, sondern auch neue Geschäftsmodelle. Diese kommerziell angebotenen Geschäftsmodelle ersetzen möglicherweise traditionelle Arbeitsfelder wissenschaftlicher Rechenzentren, schaffen aber auch Raum für ein Engagement in neuen Sektoren. Anhand der Situation in Freiburg werden verschiedene Möglichkeiten zur Weiterentwicklung eines Rechenzentrums aufgezeigt.
1Allgemeine Vorbemerkungen
Auf ZKI-Tagungen ist es eine gute Tradition, dass sich das gastgebende Rechenzentrum mit seinen Stärken und Schwächen vorstellt und gleichzeitig einen Blick in die Zukunft wagt. Nun unterscheidet sich das Freiburger Universitätsrechenzentrum zunächst nicht so sehr von vielen anderen IT-Zentren im wissenschaftlichen Umfeld – in dem Sinne, dass es mit zu wenig Personal die vielfältigen Anforderungen aus der Wissenschaft bedienen muss und dabei den einzelnen Wissenschaftlerinnen und Wissenschaftlern einen kleinen Vorteil im vielfältigen Wettbewerb, sei es die individuelle Lehre oder die Exzellenzinitiative, verschaffen sollte.
Rechenzentren sind daher kein Selbstzweck. Ihre Auftrag- und Richtungsgeber, die Hochschulen, erfüllen zentrale gesellschaftliche Aufgaben und genießen deshalb eine herausgehobene Stellung. Hierzu zählen die hohe Unabhängigkeit der Gesamtinstitution und die Autonomie der einzelnen Wissenschaftler und Forschungsgruppen. Im globalen Wettbewerb in Forschung und Lehre gilt es, die besten Wissenschaftler/-innen und Studierenden zu gewinnen. Bei deren Standortwahl spielen, neben nationalen und internationalen Rankings, die Außendarstellung und Profilbildung sowie die gebotenen Möglichkeiten eine entscheidende Rolle. Aufgrund ihrer umfassenden Bedeutung in nahezu allen Forschungsbereichen kommt der IT-Infrastruktur dabei direkt eine fundamentale Rolle zu.
Die Informationstechnologie (IT) hat sich in den letzten 25 Jahren von einer durch wenige Wissenschaftszweige genutzten Hilfstechnologie zu einem absolut zentralen Werkzeug in fast allen Bereichen von Forschung und Lehre entwickelt. In dieser Zeit hat die Breite der Einsatzmöglichkeiten erheblich zugenommen und viele Forschungsbereiche revolutioniert. Die Hauptaufgabe der Hochschul-IT als Teil der Gesamtinstitution ist daher die Unterstützung der Wissenschaft in Forschung und Lehre in all ihren fachlichen Ausprägungen.
Das baden-württembergische Landeshochschulgesetz (LHG) von 2014 stärkt die Autonomie der Hochschulen und setzt neue Maßstäbe bei hochschul- und hochschulartenübergreifenden Kooperationen mit und ohne Industriebeteiligung. Der Rahmen der gesetzlichen Verpflichtungen des Datenschutzes und der Datensicherheit und die Einhaltung der Verträge zu Drittmittel-Forschungsprojekten mit Industriepartnern müssen dabei beachtet werden. Diese Nebenbedingungen erhöhen die Komplexität für die Hochschulrechenzentren bei der Neuausrichtung ihrer IT-Systeme hin zu den für diese Zwecke benötigten hochintegrierten Informations- und Steuerungssystemen. Diese Neuausrichtung ist aber längst nicht abgeschlossen und wird es auch nie endgültig sein können, so lange es gesellschaftliche, politische, hochschulspezifische und technische Veränderungsprozesse gibt.
Der Kundenkreis der heutigen Hochschulrechenzentren hat sich erweitert und umfasst einzelne Wissenschaftler/-innen, Lehrstühle und Forschergruppen aus allen Fakultäten sowie Rektorate, Hochschulverwaltungen und Studierende; diese erwarten Lenkung und Leitung im IT-Dschungel. Sie erwarten auch, dass ihre Probleme zeitnah und effektiv gelöst werden (DFG 2016). Diese Erwartungen müssen unter den Rahmenbedingungen der aktuellen technischen und politischen Anforderungen bedient werden. Eine Bestandsaufnahme des jetzigen Zustands und die Entwicklung von Visionen und denkbarer Zukunftsszenarien sind daher zwingend. Nicht alle bisherigen und teilweise liebgewonnenen Dienste ergeben im Licht der aktuellen Veränderungen noch Sinn und müssen angesichts neuer Ansprüche an das Rechenzentrum aufgegeben oder eingekauft werden.
2Die zweite Krise der wissenschaftlichen Rechenzentren
Das Aufkommen des PC in den 1990er Jahren wurde von den Fakultäten als „Befreiung vom Joch der Rechenzentren“ gefeiert. Die alleinige Hoheit der Rechenzentren über die IT-Entwicklung war das erste Mal gebrochen. Noch konnten sie sich als Internet-Service- und Applikations-Provider behaupten. Für leistungsfähige Campus- und Inter-Hochschul-Verbindungen existierte genauso wenig eine relevante private Konkurrenz wie für E-Mail oder Web-Angebote. Bis zur Jahrtausendwende verfügte vorrangig die Wissenschaft über leistungsfähige IP-Anschlüsse am Arbeitsplatz. Auch diese Zeiten sind nun vorüber, denn es geschahen inzwischen eine Reihe wesentlicher IT-Innovationen, wie die ubiquitäre Verfügbarkeit von virtualisierten IT-Ressourcen, der sogenannten Cloud, welche die tradierte Ortsabhängigkeit von Servern und Diensten untergrub und damit die Alternativlosigkeit der lokalen Rechenzentren in Frage stellte. Nachdem also eine Hardwareinnovation die erste Krise ausgelöst hatte, wird die zweite Krise durch eine Software- und Service-Innovation angestoßen.
Der physikalische Ort, an dem eine Software ausgeführt wird, wurde durch schnelle Netze und die Virtualisierung von Compute-Leistung und Storage zunehmend unwichtig, da ein Zugriff auf geographisch entfernte Standardanwendungen meist performant erfolgen kann. Dieses Konzept der Abstraktion vom physikalischen Ort und der darunterliegenden Hardware verbirgt sich hinter dem Begriff Cloud-Computing. In der Wissenschaft führt diese Entwicklung dazu, dass lokale Rechenleistung am Arbeitsplatz nicht mehr zwingend erforderlich ist, da ein Zugriff auf entfernte Ressourcen dank schneller Netzwerkinfrastrukturen problemlos gewährleistet werden kann. Große Anbieter wie Amazon, Google und Microsoft betreiben weltweit Rechenzentren für ihre Virtualisierungsangebote, die von Wissenschaftlern zunehmend wahrgenommen werden. Dieses Phänomen wird durch die Anbieter der Betriebssysteme für Desktop- und Mobilgeräte zusätzlich befördert.
Im Jahre 2015 begann Microsoft mit der Verteilung von Windows 10. Ein Nutzer, der bei der Inbetriebnahme des Laptops nicht aufpasst, erhält sofort eine Microsoft-ID sowie 15 GByte Cloud-basierten Speicher in OneDrive. Die Microsoft-ID erlaubt es dann auch, andere Nutzer, insbesondere Kolleginnen und Kollegen, weltweit einzuladen und den Zugriff auf einzelne Daten und Ordner zu gestatten. Hinzu kommen die Vorteile der Cloud, wie Online/Offline-Speicherung der Daten auf verschiedenen Geräten und Zugriff via Tablet oder Smartphone. Dies ist ein klarer Vorteil gegenüber den üblichen universitären Speichersystemen, die sich primär mit der Fragestellung NFSv3 vs. SMB3 befassen. Die Problematik der Speicherung dienstlicher Daten in der Cloud soll hier nicht weiter diskutiert werden, da sich eine diesbezügliche einschränkende Policy vielleicht noch im Umfeld der Verwaltung, aber nur schwer im Bereich der Wissenschaft durchsetzen lässt.
Wozu braucht also der Nutzer von Windows 10 noch ein Hochschulrechenzentrum? Die Zugangskennung für eduroam ist sicher nützlich. Der Rechenzentrum-Filespace wird möglicherweise nicht mehr genutzt und die Integration in eine Rechenzentrumsumgebung kann abschreckend sein, wenn durch Roaming Profiles der Login-Vorgang entsprechend lange dauert. Ein Zetern über den Datenschutz nützt hier wenig, denn in vielen Fällen ist dem Anwender das Grundproblem der falschen Zuständigkeit überhaupt nicht klar. Weiß ein Nutzer, dass es anders geht – bzw. will er dies überhaupt wissen? Früher musste er mangels Alternativen ins Rechenzentrum, heute kommt er/sie gar nicht mehr auf die Idee.
Die Gefahr am Horizont ist klar zu erkennen: Irgendwann kennen Nutzer nur noch ihre Google-ID oder Microsoft-ID. Da diese weltweit mit den großen Anbietern von Cloud-Lösungen abgestimmt sind, werden die Nutzer aufgrund der mit diesen IDs verbundenen Funktionalitäten komplett ausgewandert sein. In einem solchen Szenario ist die einzige verbleibende Aufgabe des Rechenzentrums das Bereitstellen von Netzwerkinfrastruktur, um den Zugriff auf externe Dienste zu ermöglichen.
3Noch unbestrittene Basis-Dienste: Campus-Netz und Telefonie
Das Freiburger Rechenzentrum ist zuständig für das Datennetz der Universität, und zwar bis zur jeweiligen Anschlussdose. Während an manch anderen Hochschulen die Verantwortung bei der Netzübergabe im Gebäude endet, erlaubt hier die Gesamtzuständigkeit eine homogene Netzwerkplanung unter optimalem Einsatz der zur Verfügung stehenden Mittel. Aktuell umfasst das Freiburger Universitätsnetz ca. 42.000 Anschlussdosen, von denen aber nicht alle aktiv beschaltet sind. Zeitaufwändiges Umpatchen ist in Teilbereichen leider noch immer notwendig; erst die neuen Netzwerkkomponenten mit einem sehr niedrigen Preis pro Port und einer günstigen Energiebilanz erlauben seit einiger Zeit eine Vollbeschaltung. Es wird aber noch einige Zeit vergehen, ehe die gesamte Universität auf diesen Stand gebracht werden kann.
Die für die Netzpflege erforderlichen Mittel werden vom Rektorat und dem MWK mit einer etwa hälftigen Teilung aufgebracht. Dieser regelmäßige Mittelfluss verhindert ein vollständiges Veralten der Infrastruktur; ältere Komponenten werden regelmäßig modernisiert. Deshalb sind die meisten Komponenten jünger als sieben Jahre, was sich als günstige Standzeit herausgestellt hat.
Die Universität Freiburg ist eine Stadtuniversität mit fünf Hauptstandorten, die eine weitläufige Backbone-Infrastruktur erforderlich macht. Aktuell wird diese mit 40 Gbit/s betrieben. Die Außenanbindung an das Landesnetz BelWü kann bereits jetzt bei Bedarf auf 100 Gbit/s aufgerüstet werden (vorgesehen ist dies für 2017). BelWü verfügt über leistungsfähige Übergänge in andere Netze (USA, Schweiz, etc.) und besonders zum Deutschen Forschungsnetz DFN.
Dank dieser leistungsfähigen Netzinfrastruktur konnte bereits 2006 mit der Umstellung der Telefonie auf VoIP begonnen werden. Anfangs war dies nur ein Versuch, das nicht mehr mögliche Wachstum der alten Anlage aufzufangen. Die ausgesprochen positiven Erfahrungen führten aber dazu, dass VoIP als Ablösetechnologie für die alte ISDN-Technik schnell erkannt wurde. Die Expansion der Universität durch erfolgreiche Drittmittelanträge, nicht zuletzt in der Exzellenzinitiative, führten dank VoIP schnell zu einer drastischen Steigerung der Zahl der Telefonanschlüsse – mit dem lange angedachten Rückbau der alten ISDN-Anlage konnte somit erst 2014 begonnen werden. Trotzdem stellt sich auch hier die Frage nach langfristigen Entwicklungslinien. Mit der erheblichen Zunahme mobiler Kommunikation, Flatrate-Verträgen und alternativen Kommunikationsplattformen wie Smartphones inklusive WhatsApp kann dieser Bereich zumindest im wissenschaftlichen Umfeld an Bedeutung verlieren (von Suchodoletz et al. 2012).
Andere technische Fragen aus dem Rechenzentrumsalltag, wie Fragen des Serverbetriebs oder einer campusweiten Benutzerverwaltung, sind vielen Teilnehmern der ZKI-Tagung bestens vertraut, so dass hier nicht weiter darauf eingegangen werden muss.
Es bleibt somit die Frage, was trotz unbestrittener Basisdienste eigentlich ein wissenschaftliches Rechenzentrum wie das Freiburger so unersetzlich macht.
4Forschungsinfrastrukturen als neues Zukunftsfeld
Wissenschaft ohne IT ist heute undenkbar. Datenerhebung, Datenverarbeitung und Archivierung sind Kernbestandteile jeder wissenschaftlichen Arbeit. Die Komplexität und Vielfalt der dabei eingesetzten Systeme ist in den vergangenen Jahren jedoch erheblich gestiegen. Dies führt in den dezentralen Infrastrukturen an den Instituten zunehmend zu Problemen, da das eingesetzte Personal für die entstandene Komplexität nicht ausreicht. Die Wis...