Die Wissenschaftliche Einrichtung
Computerservice betreibt die zentralen Server des Instituts, wie Mail-, Druck-, Software-, Backup- und Web-Server, sowie Linux-basierte Abteilungs-Dateiserver, die auf ein gemeinsames zentrales Speichernetzwerk (SAN) zugreifen, dessen Datenbereiche mittels RAID6 mehrfach redundant ausgelegt sind. Die Daten im SAN werden täglich mithilfe von IBM Spectrum Protect (ehemals Tivoli Storage Manager) Backup- und Archivdienstes gesichert. Derzeit beträgt das Volumen der so gesicherten Daten 540 TB, davon sind 140 TB Archivdaten. Die Kapazität des Speichernetzes wurde 2017 auf 800 TB erweitert, um die Langzeitspeicherung wissenschaftlicher Daten nach den Regeln guter wissenschaftlicher Praxis zu gewährleisten. Etwa 750 PC-basierte Arbeits- und Messplätze, die zu 75% unter Windows, zu 20% Linux und zu einem kleinen Prozentsatz unter MacOS X arbeiten, werden betreut und bei Bedarf erneuert.
2014 wurde ein großer Rechencluster für die neue Theorie-Abteilung Alavi projektiert, installiert und in Betrieb genommen, 2017 ein weiterer an der MP-CDF gehosteter Rechencluster, der dort mit Grundwasser gekühlt wird. Desweiteren wurde 2016 ein General-Purpose-Rechencluster für die experimentellen Abteilungen des Instituts aufgebaut, der deren Rechenbedarfe abdeckt. Der Stromverbrauch für das wissenschaftliche Hochleistungsrechnen (HPC) am Institut stieg durch diese Maßnahmen wieder auf 90 kW an. Zeitgleich wurden die Serverräume 6B13 (Infrastruktur) und 2E2 (HPC, Netzwerk) durch die Einführung wassergekühlter Racks auf Energieeffizienz getrimmt. Das Kühlwasser stammt aus der 1,3 MW-Kälteanlage des Hauses, es wird Prozesskühlwasser mit einer Temperaturspreizung von 17/23°C verwendet, wodurch an 8 Monaten im Jahr eine freie Kühlung möglich ist.
Insgesamt stehen den HPC-Anwendern des Instituts nach all den genannten Umbauten und Erweiterungen 10332 Rechenkerne und insgesamt 60 TB Hauptspeicher zur Verfügung, beide Werte haben sich im Berichtszeitraum verfünffacht.
Im Rahmen eines MPG-internen Pilotprojekts wurden eine dedizierte Glasfaser-Verbindung zwischen Stuttgart und der MP-CDF in Garching geschaltet. Diese wird für ein verteiltes gemeinsames GPFS-Dateisystem genutzt, auf welches die Rechencluster der Abteilung Alavi direkt zugreifen können, unabhängig davon, an welchem Standort die insgesamt 1,5 PB großen Speichersysteme aufgestellt sind.
Die den Xen-virtualisierten IT-Diensten zugrunde liegende Speicherarchitektur wurde auf CEPH migriert und erlaubt es nun die Dienste frei auf 3 Lokationen im Hauptgebäude und im Präzisionslabor zu verteilen und im Betrieb zu verschieben um höchste Verfügbarkeit zu gewährleisten.
2016 und 2017 lag ein Schwerpunkt der Arbeit der IT-Gruppe auf der weiteren Absicherung des Institutsnetzwerks durch Austausch der Institutsfirewalls und der VPN-Zugänge zu den Instituts-, Labor- und Präzisionslabor-Netzwerken, der Einführung eines Intrusion-Detection-Systems sowie der Unterstützung von Mitarbeitern beim Umgang mit IT-gestützten Angriffen, deren Intensität in den letzten Jahren erheblich zunahm. Vor diesem Hintergrund ist die IT-Gruppe aktuell dabei mit externer Unterstützung ein Identity Management-System einzuführen, das trotz Beibehaltung betriebssystemübergreifender Standards wie OpenLDAP auch durch eine Active-Directory-Impementierung die Integration der Windows-Betriebssystemwelt verbessert und die feingranulare Vergabe von Benutzerrechten im Institut ermöglicht und damit einigen verbreiteten Angriffszenarien vorbeugt.
mehr