Benutzer:MSh/Arbeitsseite

aus Wikipedia, der freien Enzyklopädie

== MShs Arbeitsseite ==
Vorschlag fürs Einsprechen des Artikels GWDG zusammen mit Lucioa

Originalseite hier: GWDG

Sprecher A

Sie hören den Artikel Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen aus Wikipedia, der freien Enzyklopädie, mit dem Stand vom (Datum). Der Inhalt steht unter der Lizenz Creative Commons Attribution-ShareAlike 3.0 Unported und unter der GNU-Lizenz für freie Dokumentation.

Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
Eingangsansicht der GWDG in Turm 6 des Max-Planck-Institut für biophysikalische Chemie
Kategorie: Forschungseinrichtung
Träger: sind die beiden Gesellschafter
Sitz des Trägers: Gesellschaftersitz in
  • Göttingen (Universität Göttingen)
  • München (Max-Planck-Gesellschaft)
Mitgliedschaft: DFN-Verein
Standort der Einrichtung: Göttingen
Außenstellen: Serverräume in folgenden Göttinger Einrichtungen
Art der Forschung: praktische und angewandte Informatik
Fachgebiete: aktive Projekte

abgeschlossene Projekte

  • Auflistung unter Abgeschlossene Projekte[6]
Grundfinanzierung: durch beide Gesellschafter
  • Max-Planck-Gesellschaft
  • Universität Göttingen

zu je 50 %

Leitung: Ramin Yahyapour
Mitarbeiter: ~90, davon
Homepage: www.gwdg.de
Logo der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

Die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen "kurz" (GWDG) ist eine Gemeinschaftseinrichtung der Universität Göttingen und der Max-Planck-Gesellschaft. Gegründet 1970, ist die GWDG das Hochschulrechenzentrum der Universität Göttingen sowie das Rechen- und IT-Kompetenzzentrum der Max-Planck-Gesellschaft, Mitglied des Deutschen Forschungsnetzes. Die GWDG betreibt eigene Forschung im Bereich der praktischen und angewandten Informatik und ist an zahlreichen Forschungsprojekten[7] beteiligt.
Verzeichnis nicht lesen

Sprecher B

Aufgaben und Struktur der GWDG

Die GWDG als Rechen- und IT-Kompetenzzentrum für die Max-Planck-Gesellschaft und als Hochschulrechenzentrum der Georg-August-Universität Göttingen

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-Universität Göttingen - Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V. "kurz" (MPG). Sie erfüllt die Funktion eines Rechen- und IT-Kompetenzzentrums für die Max-Planck-Gesellschaft und die Funktion des Hochschulrechenzentrums für die Universität Göttingen. Ihre Forschungsaufgaben liegen im Bereich der Praktischen und Angewandten Informatik. Ferner fördert sie die Ausbildung von Fachkräften für Informationstechnologie.

Lt. Gesellschaftsvertrag fördert die GWDG die Wissenschaft und Forschung, indem sie

  • ein DV-Versorgungssystem für Forschungseinrichtungen und Universitäten betreibt,
  • bei der wissenschaftlichen Gestaltung der IT/TK-Technologie für Forschungsprojekte und universitäre Lehre mitwirkt,
  • für Forschungseinrichtungen und Universitäten als Forschungsförderungseinrichtung Leistungen erbringt,
  • wissenschaftliche Anwenderinnen und Anwender bei der Lösung von Problemen im Bereich der Informations- und Kommunikationstechnologie berät und bei der Umsetzung der Problemlösungen mitwirkt,
  • wissenschaftliche Anwenderinnen und Anwender von Informations- und Kommunikationstechnologie aus- und weiterbildet,
  • eigene Forschung auf dem Gebiet der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes, für die Lösung wissenschaftlicher Fragen betreibt. Das gesamte von ihr betreute DV-Versorgungssystem ist dabei Objekt der Untersuchung.

Zu den Aufgaben gehören insbesondere der Betrieb von Hochleistungsrechnern (Parallelrechner), die Bereitstellung von Spezialsystemen und die Betreuung des Übertragungsnetzes GÖNET, das die Göttinger Institute verbindet. Über die GWDG ist das GÖNET mit dem nationalen Wissenschaftsnetz X-WiN und dem Internet verbunden.

Als Kompetenzzentrum berät und unterstützt die GWDG die von ihr betreuten Institute bei allen Fragen der wissenschaftlichen Datenverarbeitung.

Die Ressourcen der GWDG können von allen wissenschaftlichen Einrichtungen im Göttinger Raum, insbesondere von den Instituten der Universität Göttingen sowie allen Instituten der Max-Planck-Gesellschaft genutzt werden. Außerdem bestehen für die Studierenden der Universität Zugänge zu Rechnern und damit zum Internet.

Neben dem unmittelbaren Nutzen, den die Gesellschafter der GWDG für ihre wissenschaftliche Forschung aus dem Rechenzentrum ziehen, hat sich gezeigt, dass die Gesellschaft seit ihrem Bestehen ein wichtiges Bindeglied zwischen Universität Göttingen und Max-Planck-Gesellschaft geworden ist.

Das Arbeitsgebiet der GWDG ist gekennzeichnet durch außerordentlich große Vielfalt der DV-Anwendungen und durch sehr hohe Komplexität im Sinne sehr vieler und enger Wechselwirkungen zwischen zahlreichen beteiligten Rechnern, Netzen, Softwarekomponenten und Personen.

In ihrer Funktion als Rechen- und IT-Kompetenzzentrum bietet die GWDG ihren Nutzerinnen und Nutzern sowohl standardisierte als auch strategische Dienste an. Zu den standardisierten Diensten zählen Betrieb und Weiterentwicklung der DV-technischen Infrastruktur, Verfügbarmachung von Hard- und Software für den wissenschaftlichen Einsatz sowie Beratung zur DV-Unterstützung wissenschaftlicher Projekte.

Gleichzeitig hat es sich die GWDG zur Aufgabe gemacht, aktuellen Fragestellungen nachzugehen und neue Technologien zu erproben, um ein Angebot für die Bedürfnisse der Wissenschaftler von morgen zu schaffen. Die GWDG arbeitet an der Umsetzung von zukunftsweisenden DV-Konzepten, um Lösungen dann bereithalten zu können, wenn die Nutzerinnen und Nutzer sie brauchen. Die Entwicklung solcher komplexer Lösungen geschieht im Wechselspiel von praktischen Anforderungen und theoretischen Ansätzen, unter Einbeziehung des aktuellen Wissensstandes der Informatik.

Als Rechen- und IT-Kompetenzzentrum für die MPG bietet die GWDG grundsätzlich alle Dienste für die MPG an. Laut Votum einer Unterkommission des Beratenden Ausschusses für Rechenanlagen (kurz BAR) der MPG hat die GWDG den Auftrag erhalten, für die Max-Planck-Institute außerhalb Göttingens folgende zentralen Dienste anzubieten: IT-Sicherheit, Betrieb von Mail- und Webservern, Backup und Langzeitarchivierung, Bibliothekssysteme und Informationsdatenbanken, Netzplanung sowie Schulungsprogramm. Das Server-Hosting und die Betreuung zentraler Server für die MPG (z. B. CMS-, eDoc- oder Aleph-Server) hat sich in den vergangenen Jahren zu einem weiteren bedeutenden Aufgabengebiet entwickelt.

In ihren Empfehlungen zur „Informationsverarbeitung an Hochschulen“ für die Jahre 2001–2005 hat die Kommission für Rechenanlagen der Deutschen Forschungsgemeinschaft ein verteiltes kooperatives Versorgungskonzept für Hochschulen entworfen. Es wird darauf hingewiesen, dass das Rechenzentrum „ein unverzichtbarer Bestandteil dieses kooperativen Versorgungskonzeptes jeder Hochschule“ ist. Zu den Hauptaufgaben der Rechenzentren gehören danach der Betrieb der Netze und Netzdienste, der Betrieb zentraler Server und Dienste sowie die Beratung und Unterstützung der Anwender. Weiterhin werden die Einrichtung einer Hotline und eines Helpdesk für erforderlich gehalten.

Sprecher A

Forschung im Bereich der Praktischen und Angewandten Informatik

Forschung vollzieht sich meist in der Durchführung von wohl definierten Projekten, die häufig untereinander in Zusammenhang stehen. Das einzelne Projekt durchläuft dabei mehrere Phasen, die zusammen eine Verfahrenskette bilden. Die zunehmende Durchdringung der Forschung durch die Informationstechnologie hat dazu geführt, dass Rechenzentren wie die GWDG in praktisch allen Schritten der Verfahrenskette Forschung involviert sind und einen wesentlichen Beitrag liefern. Hierbei wird sich häufig auch eine gemeinschaftliche Forschung von Wissenschaftlern aus Benutzerinstituten und der GWDG ergeben. Das Gesamtsystem der wissenschaftlichen Datenverarbeitung in einem Versorgungsbereich ist auf diese Weise vollständig mit dem System der Forschung in diesem Bereich verzahnt. Es ist zur wesentlichen Infrastruktur der Wissenschaft geworden, die unmittelbar in dem wissenschaftlichen Erkenntnisprozess mitwirkt, indem sie nämlich Information bereitstellt, umformt und die Kooperation aller Beteiligten in neuartiger Weise ermöglicht. Das letztere ist besonders wichtig, weil Forschung heute hauptsächlich von Teams betrieben wird und der Einzelforscher eher selten ist.

Neben dieser umfangreichen Unterstützung der Forschung in ihren Benutzerinstituten ist die GWDG auch selbst eine wissenschaftliche Einrichtung, die Fragestellungen aus der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes zur Lösung wissenschaftlicher Probleme erforscht. Dieser Themenkreis umfasst solche Teilgebiete wie Rechnerbetriebssysteme, Rechnernetze, Datenübertragungstechnik, Algorithmik, Netz-, System- und Anwendungsmanagement und Organisationslehre der Datenverarbeitung.

Empirische Daten werden dieser Forschung bei der GWDG durch den eigenen Rechenzentrumsbetrieb geliefert.

Dieser ist ein wesentliches Objekt der wissenschaftlichen Untersuchung. Er muss, um dem Zweck dienen zu können, genau auf die Bedürfnisse des Anwenders aus der Wissenschaft ausgerichtet sein. Er stellt aus der Sicht der Forschung der GWDG eine Art Versuchslabor dar, in dem neue Erkenntnisse gewonnen und auch getestet werden. Diese engste Verzahnung zwischen der Forschung und dem Betrieb einer IT-Infrastruktur ist eine notwendige Voraussetzung für hochwertige Forschungsergebnisse in den genannten Gebieten.

Aus den Bedürfnissen der wissenschaftlichen Nutzerinnen und Nutzer ergeben sich laufend neue Entwicklungs- und Anwendungsfelder für die GWDG. Dabei gilt es, sowohl vorhandene Ansätze der wissenschaftlichen Datenverarbeitung zu koordinieren als auch neue Lösungen zu entwickeln.

Vielfältige Projekte gewährleisten, dass die Kompetenz der GWDG nicht nur mit der rasanten Entwicklung Schritt hält, sondern dieser Entwicklung immer einen kleinen Schritt voraus ist. Dies ist eine notwendige Vorbedingung, um die Forschungsaufgaben von heute den Nutzern morgen in Form von Standarddiensten anbieten zu können.

Aus der Sicht der Anwenderin und des Anwenders ist das Rechenzentrum der GWDG ein Dienstleistungsbetrieb, der auf die Bedürfnisse von Wissenschaftlerinnen und Wissenschaftler hin spezialisiert wurde. Ohne diesen Dienstleistungsbetrieb würde der Forschung der GWDG die empirische Grundlage und die genannte enge Verzahnung fehlen. Forschung und Dienstleistung sind auf diese Weise untrennbar miteinander verbunden.

Damit ist der wissenschaftliche Kernbereich der Arbeit in der GWDG beschrieben. Als wissenschaftliche Einrichtung kann die GWDG jedoch nur arbeiten, wenn eine Umgebung bereitgehalten wird, die die wissenschaftliche Arbeitsmöglichkeit überhaupt sichert. Hierzu gehören bei der GWDG weitere Aktivitäten wie wissenschaftliche Tagungen bzw. Workshops, in denen dem wissenschaftlichen Austausch mit den Universitäts- und Max-Planck-Instituten Raum gegeben wird, das Publikationswesen, die wissenschaftliche Bibliothek, das Rechnermuseum. Zahlreiche Publikationen und auch Promotionen halten die Ergebnisse der Forschungs- und Entwicklungsarbeit der GWDG fest.

Alle Tätigkeiten der GWDG, insbesondere ihre Forschung, aber auch die des Rechenzentrums, sind im Übrigen Voraussetzung für den umfangreichen Schulungsbetrieb der GWDG, in dem Mitarbeiterinnen und Mitarbeiter der wissenschaftlichen Institute zu Fragen der Datenverarbeitung weitergebildet werden.

Sprecher B

Im Berichtszeitraum 2009 bis 2010 hat die GWDG an den folgenden Forschungsprojekten gearbeitet, die mit Drittmitteln oder Mitteln aus dem Geschäftsbetrieb der GWDG gefördert werden:

  • Die GWDG ist am MediGRID-Projekt im Rahmen der E-Science-Initiative des BMBF beteiligt. Ein in diesem Zusammenhang von Harald Richter, TU Clausthal, und Oswald Haan, GWDG, betreutes Promotionsprojekt beschäftigt sich mit dem Thema „Leistungsoptimierung im Daten-Grid“. Nach der Verlängerung der Förderung des Projektes um ein halbes Jahr bis Februar 2009 ist das MediGRID-Projekt beendet worden.
  • An dem Folgeprojekt zu MediGRID, Services@MediGRID, ist die GWDG als Ressourcenprovider ebenfalls beteiligt. Services@MediGRID entwickelt auf Basis der MediGRID-Middleware wichtige Elemente für die Nachhaltigkeit der Grid-Infrastruktur. Dazu wird das MediGRID um eine vertikale Komponente erweitert, die durch alle Schichten hindurch Dienste gestaltet, die Voraussetzung für eine kommerziell orientierte Verwertung sind. Das Projekt begann am 1. Januar 2008 und lief bis Ende 2010.
  • Das Projekt „DP4lib“ ist die konsequente Weiterentwicklung von Kopal zu einem integrierten Dienst zur Langzeitarchivierung digitaler Daten. Dabei soll das System zu einer mandantenfähigen Lösung ausgebaut werden. Das Projekt wurde von der Deutschen Nationalbibliothek in Frankfurt und der SUB Göttingen bei der DFG beantragt und Anfang 2009 genehmigt. Wie beim Projekt Kopal wird die Software durch IBM geliefert, die GWDG übernimmt Planung und Betrieb der Speicher- und Server-Systeme. Projektbeginn mit einem Kickoff-Meeting war Anfang 2010.
  • EURExpress (EU): ein Projekt zur automatisierten Genexpressionsanalyse, initiiert durch Gregor Eichele vom früheren MPI für experimentelle Endokrinologie in Hannover. Das Projekt wird durch die EU im Rahmen des 6. Forschungsrahmenprogramms gefördert. Die im Rahmen des Projektes für die GWDG zur Verfügung stehenden Mittel wurden aufgestockt und das Projekt planmäßig fortgeführt. Es verlief bisher sehr erfolgreich. Im Jahr 2010 wurden die für das Projekt eingesetzten Server (Datenbank-, Web- und Zoomserver) als virtuelle Maschinen in die VMware-Umgebung migriert.
  • Das Forschungsprojekt und Verbundvorhaben „OptiNum-Grid - Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen“ wurde von der GWDG als Konsortialführer und Koordinator mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie für die 3. D-Grid-Förderrunde des BMBF initiiert. Ziel des Projektes, das mit 1,5 Mio € über drei Jahre gefördert wird und am 1. Juni 2009 planmäßig begonnen hat, ist es, Dienste und Geschäftsmodelle zu entwickeln, mit denen numerische Simulations- und Optimierungsverfahren über das Grid bereitgestellt und genutzt werden können.
  • An einem weiteren Verbundprojekt der 3. D-Grid-Förderrunde, „DGSI - D-Grid Scheduler Interoperability“, ist die GWDG als Partner mit sechs weiteren Forschungseinrichtungen und einer Firma aus der Industrie beteiligt. In diesem Projekt sollen Verfahren entwickelt werden, die die gemeinsame Nutzung der zur Verfügung stehenden Rechen- und Speicherressourcen über die Grenzen der heterogenen Umgebung der vielen D-Grid-Communities hinweg ermöglichen.
  • Im Rahmen der GÖ*-Arbeitsgruppe „Langzeitarchivierung“ wurde ein Projektantrag zur Erstellung einer Studie „Kooperative Langzeitarchivierung für Wissenschaftsstandorte“ (KoLaWiss) erstellt, der bei der DFG eingereicht und genehmigt wurde. Die Projektleitung lag bei der GWDG. Das Projekt wurde am 1. Februar 2008 begonnen und nach Verlängerung um drei Monate Ende April 2009 mit entsprechenden Abschlussberichten erfolgreich beendet.
  • Der von der GWDG im Jahr 2009 eingeführte Dienst zur Bereitstellung von Persistent Identifiers zur eindeutigen und bleibenden Referenzierung von Datenobjekten ist auch wegen dessen möglichen Einsatzes für die sichere und langfristige Verfügbarkeit von Forschungsdaten von großer Bedeutung. Im Berichtszeitraum wurden eine Reihe von Maßnahmen zur Weiterentwicklung und Verbesserung dieses Dienstes durchgeführt.
  • Seit Juli 2007 beschäftigt sich ein GWDG-Mitarbeiter, der zuvor im Instant-Grid-Projekt als Projektmitarbeiter erfolgreich tätig war, im Rahmen seiner Promotion mit dem Thema „Reliable grid information services, resource discovery and service quality monitoring across virtual organizations“.



Sprecher A

Ausbildung von Fachkräften für Informationstechnologie

Die GWDG fördert die Ausbildung von Fachkräften für Informationstechnologie in zweierlei Weise: Zum einen durch die Beschäftigung von Auszubildenden sowie in unregelmäßigen Abständen auch von Praktikanten und zum anderen durch ein umfangreiches Kursangebot für die Benutzer.

Die GWDG bildet seit 1979 aus. Anfangs gab es zwei Ausbildungsplätze, später kamen zwei weitere dazu. Im Berichtszeitraum 2009 bis 2010 waren vier Auszubildende zum „Elektroniker für Geräte und Systeme" bei der GWDG tätig. Neben den Berufsgrundlagen eines Elektronikers erhalten die Auszubildenden während ihrer 3,5-jährigen Ausbildungszeit ständig Einblick in die neueste Netzwerktechnologie und PC-Technik.



Sprecher B

Die Gesellschafter und der Aufsichtsrat

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-Universität Göttingen - Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., die somit die beiden Gesellschafter darstellen und jeweils zur Hälfte beteiligt sind. Im Jahr 2005 hatte das Land Niedersachsen seinen Anteil an der GWDG auf die Stiftungsuniversität Göttingen übertragen. Der Aufsichtsrat hat die vom Gesetzgeber vorgeschriebenen Aufgaben und Pflichten zu erfüllen, insbesondere die Überwachung und Beratung der Geschäftsführung. Die Gesellschafter entsenden jeweils bis zu drei Mitglieder in den Aufsichtsrat. Den Vorsitz im Aufsichtsrat und den stellvertretenden Vorsitz führen im zweijährigen Wechsel ein Vertreter der Universität Göttingen und der Max-Planck-Gesellschaft.

Sprecher A

Der wissenschaftliche Beirat

Wie viele andere Unternehmen, so besitzt auch die GWDG einen wissenschaftlichen Beirat. Der Beirat übt laut Gesellschaftsvertrag eine Vielzahl von Aufgaben aus. Die bedeutendste davon ist, dass er die Gesellschaft in wichtigen Fragen beraten und die Verbindung mit den an der Arbeit der Gesellschaft interessierten Kreisen fördern soll. Er besteht aus 16 Personen und ist jeweils zur Hälfte mit Vertreterinnen und Vertretern aus den Max-Planck-Instituten und den Instituten der Universität Göttingen besetzt. Der Beirat wählt aus seiner Mitte einen Vorsitzenden sowie einen Stellvertreter.



Sprecher B

Die Organisationsstruktur

Die derzeitige Organisationsstruktur der GWDG, die seit dem 1. Dezember 2004 besteht, ist konsequent auf die unterschiedlichen Dienstleistungsbereiche ausgerichtet und trägt den heutigen Anforderungen an Universitäts- und Forschungsrechenzentren als moderne IT-Kompetenzzentren mit einem umfangreichen Leistungsspektrum Rechnung. Aus Kundensicht verliert die Frage, auf welchen Systemen die Leistungen realisiert werden, bezogen auf die interne Organisation, immer mehr an Bedeutung (plattformübergreifende Orientierung an Dienstleistungen). Das spiegelt sich in der Organisationsstruktur wider. Es gibt fünf Arbeitsgruppen, auf die die Aufgaben und Verantwortungsbereiche aufgeteilt sind:

1.) Arbeitsgruppe Anwendungs- und Informationssysteme (AG A)

Wissenschaftliches Rechnen, Grid-Computing, Datenbanken, Informationssysteme, Desktop-Systeme, Anwendungssysteme, IT-Sicherheit

2.) Arbeitsgruppe Nutzerservice und Betriebsdienste (AG H)

Helpdesk, Benutzerbetreuung, Überwachung der Betriebsbereitschaft, Management-Systeme, Bearbeitung spezieller Benutzeraufträge, Print-Services einschl. Großformat-/Broschürendruck und Betrieb Peripherie-Geräte, Hosting von Systemen, AD-Services, Verzeichnis- und Informationsdienste, Multimedia

3.) Arbeitsgruppe IT-Infrastruktur (AG I)

Wissenschaftsnetz, WLAN GoeMobile, IT-Sicherheit, Mail-, File- und Backup-Services, Archivierung von Daten/Langzeitarchiv, Betrieb von virtuellen Servern

4.) Arbeitsgruppe Basisdienste und Organisation (AG O)

Management-Systeme, Reporting/Accounting, Benutzerverwaltung, betriebliche Organisation, Basis-Infrastruktur, Ausbildung, Beschaffung und Verwaltung von Softwarelizenzen, Spezialsysteme (z. B. elektronisches Bewerbungsverfahren), Planung und Durchführung von Kursen zu IT-Themen, Presse- und Öffentlichkeitsarbeit, Datenschutz, Groupware, Planung von Datenübertragungsnetzen, GÖNET, Web-Services

5.) Arbeitsgruppe Verwaltung und Querschnittsaufgaben (AG V)

IT-Rechtsfragen, Ausschreibungen

Sprecher A

Geschichte

Am 29. April 1970 fand die Gründungsversammlung der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen – kurz GWDG – statt. Die beiden Gesellschafter Land Niedersachsen für die Universität Göttingen und Max-Planck-Gesellschaft beteiligten sich zu je 50 % am Kapital der GWDG, und auch die jährlichen Kosten sollten nach dem ebenfalls am 29. April 2010 geschlossenen Konsortialvertrag je zur Hälfte getragen werden. Das wichtigste und für die damalige Zeit innovative Ziel war die Realisierung von Synergien in der Informationsverarbeitung durch den gemeinsamen Betrieb eines Rechenzentrums.

Im Jahr ihrer Gründung, nahm die GWDG einen Universalrechner UNIVAC 1108 in Betrieb. Er war durch seine Architektur besonders für numerische Anwendungen geeignet. Die CPU leistete ungefähr 1 Million Instruktionen pro Sekunde, also 1 MIPS. Über acht Ein-/Ausgabe-Kanäle wurden unter anderm zwei Magnettrommelsysteme mit insgesamt ca. 25 MegaByte Speicherplatz betrieben.

Am 23. Februar 1976 wurde Dieter Wall zum wissenschaftlichen Geschäftsführer bestellt und damit Nachfolger von Bruno Brosowski. Wall hat die Gründung der GWDG vorbereitet, bei ihrem Aufbau an entscheidender Stelle mitgewirkt und sie bis zu seiner Pensionierung Mitte 1997 maßgeblich gestaltet und geprägt. Unter seiner Leitung ist die GWDG schon sehr früh als „Vorreiter“ den Weg vom reinen Rechenzentrum zum modernen IT-Kompetenzzentrum für Forschung und Lehre gegangen. Von 1979 an war er Mitglied und von 1988 bis 1994 Vorsitzender der Kommission für Rechenanlagen der DFG.

Im Januar 1978 erschien die erste Ausgabe der GWDG-Nachrichten[8]. Im damaligen Editorial wurden sie als kleine Hauszeitschrift bezeichnet, die u. a. Verständnis für die technischen und organisatorischen Probleme des Rechenzentrumsbetriebes wecken und die Kommunikation zwischen dem Rechenzentrum und seinen Benutzern unterstützen sollte. Die Ausgaben der ersten Jahre waren durch den Abdruck technischer Informationen über die einzige Großrechenanlage UNIVAC 1108 und später UNIVAC 1100/82 geprägt. Beschreibungen des Betriebssystems, einzelner Programme und der Compiler kamen hinzu. Wenige spezielle Kurse wurden angekündigt.

Am 14. September 1979 wurde die UNIVAC 1108, deren Leistung bei weitem nicht mehr zur Deckung des Bedarfs ausreichte, durch das Nachfolgemodell UNIVAC 1100/82 mit der Aufnahme des Normalbetriebs abgelöst. Sie war mit zwei Rechenprozessoren, die je 2,5 MIPS leisteten, ausgestattet. Hinzu kam ein Ein-/Ausgabeprozessor mit direktem Zugriff auf den gemeinsamen Hauptspeicher. (Abb. zeigt einen Ausschnitt aus der Multiplexer-Platine mit PLAs). Am 1. November 1979 wurde der erste PC vom Typ Commodore PET 2001 für die interne Nutzung in der GWDG in Betrieb genommen. Der frei programmierbare Tischrechner mit BASIC-Interpreter hatte eine Taktrate von 1 MegaHertz, eine Hautspeicherkapazität von 8 KiloByte und ein Magnetbandkassettenlaufwerk.

Am 10. Juli 1981 ging die Rechenanlage VAX 11/780 mit angeschlossenem Farbgrafiksystem in Betrieb. Ihre Hauptanwendung war das Farbgrafiksystem AYDIN 5216 (für interaktive grafische Anwendungen), bestehend aus zwei hochauflösenden Farbmonitoren mit Tastatur und Joystick. Später kam noch das Grafik-Tablett „Digi-Pad 5“ zur interaktiven Digitalisierung von grafischen Darstellungen hinzu, das mit einem Abtaststift arbeitete.

Am 15. Oktober 1984 wurde mit der Inbetriebnahme eines COM-Gerätes (Computer Output on Microfilm) Benson 343 eine bedeutende Erweiterung des grafischen Ausgabeangebotes erreicht. Es konnten Texte und farbige Grafiken auf Mikrofiches (105 mm), 35-mm-Diafilm und 16-mm-Schmalfilm (nur schwarz/weiß) ausgegeben werden. Als zusätzliche Ausstattung für die Arbeit mit Mikrofiches wurden Lesegeräte, ein Entwicklungsgerät, ein Vervielfältigungsgerät und ein Rückvergrößerungsgerät beschafft.

Sprecher B

Mitte des Jahres 1987 wurde erstmals eine Verbindung der GWDG zum Deutschen Forschungsnetz WiN und damit auch zum damals noch wenig bekannten Internet eingerichtet. Die Übertragungsrate betrug 64 Kilobit/s. Somit war es erstmals möglich, weltweit mit Partnern in vielen Forschungseinrichtungen moderne Formen der Telekooperation zu nutzen.

Am 15. November 1988 wurde die Rechenanlage IBM 3090 mit Vektoreinrichtung feierlich in Betrieb genommen. Schon ein Jahr vorher, am 19. November 1987 hatte der uneingeschränkte Benutzerbetrieb auf dem Zentralrechner begonnen. Anfangs war er mit zwei Prozessoren, die jeweils 16 MIPS leisteten, und einer Vektoreinrichtung. Im April 1988 wurde die Rechenanlage um einen dritten Prozessor mit Vektoreinrichtung erweitert. Die Leistung betrug damit 48 MIPS ohne Berücksichtigung der Vektoreinrichtungen. Außerdem wurde die Massenspeicherkapazität durch Anschluss von zwei Magnetplattenuntersystemen auf eine Gesamtmassenspeicherkapazität von 45 GigaByte erhöht.

Im Januar 1992 begann der Betrieb auf den ersten, Benutzern zugänglichen Workstations der GWDG, einer DECstation 5000 und einer IBM RS/6000, unter den UNIX-Betriebssystemen ULTRIX bzw. AIX. Im Juli 1992 schließlich begann der Ausbau der Workstations zu einem Cluster aus zwei DECstations 5000 und fünf Systemen IBM RS/6000, die über einen FDDI-Ring gekoppelt waren. Über Glasfaserkabel wurden Übertragungsraten von 100 Megabit/sec unterstützt. Ein Cisco-Router stellte die Verbindung zum Ethernet und zum Internet her. Der Aufbau eines starken Clusters von Workstations als Überlaufkapazität für die Arbeitsplatzrechner in den Instituten war Teil des verteilten kooperativen Versorgungskonzepts und läutete eine neue Ära in der wissenschaftlichen Datenverarbeitung ein.

In Jahr 1993 konnte ein mit Mitteln der DFG und der Gesellschafter der GWDG finanzierter Parallelrechner KSR1 mit 32 Prozessoren in Betrieb genommen werden. Seine Gesamtrechenleistung betrug 1,28 GigaFlop/sec bei einer Gesamtspeichergröße von 1 GigaByte. Das für die damalige Zeit einzigartige und herausragende Merkmal war die Speicherorganisation nach dem Prinzip des virtuell gemeinsamen Speichers. Im März 1993 kam es zur Inbetriebnahme des GÖNET-Backbones, eines Bündels von Glasfaserkabeln, das in einem Ring von der GWDG über den Uni-Nordbereich, das Universitätsklinikum, den Bereich des alten Klinikums, das Geisteswissenschaftliche Zentrum und durch die Innenstadt zur Metallphysik, in den Südbereich und zur Universitätssternwarte reichte. In diesem Backbone wurde FDDI-Technologie mit einer Übertragungsleistung von 100 Megabit/sec eingesetzt. Neben den Universitätsinstituten wurden auch das Max-Planck-Institut für Strömungsforschung und das Max-Planck-Institut für Experimentelle Medizin an den Glasfaser-Backbone angebunden. Im November 1993 wurde erstmals das Leistungsangebot der GWDG Rechner, Netze, Spezialisten, in dem sich die GWDG als IT-Kompetenzzentrum darstellt, veröffentlicht. Die GWDG hatte damit als erstes wissenschaftliches Rechenzentrum in Deutschland eine Empfehlung der Kommission für Rechenanlagen der DFG zum neuen verteilten, kooperativen Versorgungssystem umgesetzt. Ab Januar 1994 wurden alle Aufträge der Benutzer nach den im Katalog aufgeführten Verfahren bearbeitet. Das Abrechnungsverfahren, die Kontingentierung sowie das Kosten- und Leistungsrechnungssystem beruhen seit 1994 auf diesem inzwischen nur noch online und tagesaktuell im WWW verfügbaren Dienstleistungskatalog.

Die GWDG hatte sich im Mai 1994 entschlossen, als weiteres Informationssystem einen WWW-Server zu betreiben. In wenigen Wochen wurden die Inhalte aus dem Boden gestampft. Sie deckten schon in der ersten Ausgabe sowohl die Universität Göttingen als auch die Max-Planck-Gesellschaft ab. Einfach war das jedoch nicht: Tabellen unter HTML waren noch nicht erfunden, an Frontpage oder an andere HTML-Composer war noch nicht zu denken. Inhalte wurden mit simplen Texteditoren erstellt, jeder HTML-Tag musste mit den Fingern auf der Tastatur eingetippt werden.

Am 1. August 1997 wurde Gerhard Schneider Nachfolger des langjährigen Geschäftsführers Dieter Wall, der dieses Amt mehr als 21 Jahre innehatte. Schneider hat vor allem im Netzbereich für die frühzeitige Bereitstellung innovativer Dienste und Möglichkeiten (u. a. ADSL und Funk-LAN) gesorgt und damit dem Wissenschaftsstandort Göttingen und seinen Anwendern gegenüber der Konkurrenz mehrmals einen Vorteil verschafft.

Am 12. Mai 1998 wurde der neue ATM-Backbone durch den damaligen Niedersächsischen Wissenschaftsminister Oppermann eingeweiht. Mit 622 Megabit/sec verband das zu der Zeit schnellste Teilstück der wissenschaftlichen Datenautobahn in Niedersachsen die fünf Max-Planck-Institute im Göttinger Raum, die GWDG und die Universität Göttingen – untereinander und mit dem Breitband-Wissenschaftsnetz B-WiN. Die ATM-Technik erlaubte neben dem reinen Internet-Verkehr auch Datenverbindungen mit besonderen Qualitätsanforderungen wie Video und Sprache und war damit wichtige Grundlage für Multimedia-Anwendungen.

Sprecher A

Anfang des Jahres 2000 ging ein Hochleistungs-Digitaldrucksystem für farbige Ausdrucke in Betrieb – die sog. Druckstraße. Mit ihr konnten unter anderm Flyer, Zeitschriften, Prospekte und wissenschaftliche Publikationen in kleiner bis mittlerer Auflage schnell und kostengünstig produziert werden. Die Anwendungen reichten vom einfachen Ausdruck einzelner Farbseiten bis zur Herstellung umfangreicher gehefteter Broschüren. Am 10. Februar 2000 wurde das Parallelrechnersystem IBM RS/6000 SP feierlich in Betrieb genommen. Damit stieg die vorhandene Rechenkapazität für wissenschaftliche Simulationsrechnungen um den Faktor 10. Die Gesamtrechenleistung der 144 Prozessoren lag bei ca. 200 Milliarden Rechenoperationen pro Sekunde (200 GigaFlop/s). Es rangierte damit in der Top-500-Liste der weltweiten Rechenssysteme unter den ersten 100.

Am 16. Februar 2001 wurde der erste Abschnitt des Göttinger Funk-LANs GoeMobile offiziell in Betrieb genommen. Das Funk-LAN dient als Ergänzung des schon seit 1993 bestehenden stationären Hochgeschwindigkeitsnetzes GÖNET. Bereits die anfängliche Übertragungsrate von 11 Megabit/sec erlaubte Video- und Tonübertragungen in Echtzeit und ermöglichte damit auch die Teilnahme an Televorlesungen.

Am 1. Januar 2002 übernahm Hartmut Koke, vorheriger stellvertretender Leiter des Rechenzentrums, bis zur endgültigen Findung eines Nachfolgers für den ausgeschiedenen Gerhard Schneider die Geschäftsführung. Herr Koke hat das GÖ*-Projekt zum integrierten Informationsmanagement am Wissenschaftsstandort Göttingen entscheidend mitentwickelt und damit die Kooperation der verschiedenen wissenschaftlichen IT-Dienstleister weiter erfolgreich vorangetrieben.

Am 1. Juli 2003 wurde Bernhard Neumair neuer Geschäftsführer und damit Nachfolger von Hartmut Koke. In seiner siebenjährigen Amtszeit hat Neumair die GWDG erfolgreich weiter zu einem modernen IT-Dienstleister für Forschung und Lehre entwickelt und das breite Leistungsspektrum weiter ausgebaut, verbessert und an die Nutzerbedürfnisse angepasst. Dabei setzte er auf verstärkte Kooperation und konsequente Nutzung von Synergieeffekten zwischen den wissenschaftlichen IT-Dienstleistern am Forschungsstandort Göttingen.

Die GWDG war im Jahr 2005 erstmals auf der CeBIT vertreten. Dort wurden mit dem Instant Cluster und dem GÖ*-Portal zwei Projekte vorgestellt, die sich mit dem einfachen Zugriff auf IT-Ressourcen, mit Fokus auf die wissenschaftliche Nutzung, befasst haben.

Am 30. März 2007 wurden die beiden Hochleistungs-Parallelrechnersysteme SGI Altix 4700 und Megware Woodcrest-Cluster mit einer feierlichen Einweihung offiziell in Betrieb genommen. Mit einer Spitzenleistung der 1.112 Rechenkerne von insgesamt fast 10,5 TeraFlop/s, das heißt ca. 10,5 Billionen Rechenoperationen pro Sekunde, gehörten sie zu leistungsfähigsten Rechnern in Niedersachsen und verfünffachten die bei der GWDG für die Wissenschaft und Forschung bereitgestellte Rechenleistung. Diese hohe Leistung sowie 2,6 TeraByte Hauptspeicher und 63,6 TeraByte lokaler Plattenspeicher erlaubten numerische Simulationen von in der naturwissenschaftlichen Grundlagenforschung untersuchten komplexen Systemen in bis dahin nicht erreichter Auflösung und Genauigkeit.

Am 13. Mai 2008 wurde das Göttinger Grid-Ressourcen-Zentrum GoeGrid offiziell in Betrieb genommen. GoeGrid realisiert als Baustein einer zukünftigen eScience-Infrastruktur den zentralen Betrieb und die gemeinsame Nutzung der Rechen- und Speicherressourcen aller Grid-Communities in Göttingen. Es umfasste anfänglich einen Hochleistungs-Rechencluster mit über 800 Rechenkernen, einen Massenspeicherbereich von 180 TeraByte und Archivspeicherkapazität von 30 TeraByte.

Am 1. Juli 2010 übernahmen Oswald Haan, vorheriger stellvertretender Leiter des Rechenzentrums, und Paul Suren, vorheriger Prokurist und Verwaltungsleiter, bis zur endgültigen Findung eines Nachfolgers für den ausgeschiedenen Bernhard Neumair gemeinsam die Geschäftsführung – Oswald Haan als wissenschaftlicher und Paul Suren als administrativer Geschäftsführer. Am 18. Oktober 2010 feierte die GWDG ihr 40 jähriges Bestehen.[9][10]

Anfang des Jahres 2011 ging der neue Magny-Cours-Hochleistungs-Rechencluster von Megware in Betrieb. Er enthält insgesamt 66 Rechenknoten mit jeweils vier AMD-Zwölf-KernProzessoren. Mit einer Gesamtrechenleistung der insgesamt 3168 Rechenkerne von 27,9 TeraFlop/s – das heißt 27,9 Billionen Rechenoperationen pro Sekunde – einem verteilten Hauptspeicher von 8,2 TeraByte und einem verteilten lokalen Plattenspeicher von 64 TeraByte ist der Magny-Cours-Cluster das zur Zeit leistungsstärkste Rechnersystem bei der GWDG.

Seit dem 1. Oktober 2011 ist Ramin Yahyapour neuer Geschäftsführer. Ramin Yahyapour löst damit den bisherigen wissenschaftlichen Geschäftsführer, Oswald Haan, und Paul Suren, den bisherigen administrativen Geschäftsführer, ab. Beide hatten nach dem Weggang von Bernhard Neumair am 1. Juli 2010 gemeinsam die Geschäftsführung übernommen. Oswald Haan geht nach 18-jähriger Tätigkeit bei der GWDG in den Ruhestand, Paul Suren wird weiterhin, wie vorher auch, als Prokurist und Verwaltungsleiter bei der GWDG tätig sein.[11]



Sprecher B

Geschäftsführer

Nachfolgend sind alle Geschäftsführer seit Gründung der GWDG aufgelistet.

  • Bruno Brosowski (1970 bis 1976)
  • Dieter Wall (1976 bis 1997)
  • Gerhard Schneider (1997 bis 2002)
  • Hartmut Koke (2002 bis 2003)
  • Bernhard Neumair (2003 bis 2010)
  • doppelte Geschäftsführung (2010 bis 2011)
    • Oswald Haan (wissenschaftlich)
    • Paul Suren (administrativ)
  • Ramin Yahyapour (seit Oktober 2011)



Sprecher A

Dienste

GÖNET und Funk-LAN

GÖNET-Ausbau

Im Berichtszeitraum 2009 und 2010 sind die Erneuerung veralteter Komponenten, der Backbone-Ausbau sowie Maßnahmen zur Unterstützung der Sicherheit planmäßig fortgeführt worden. Am 14. September 2009 wurde die zusätzliche Redundanz-Backbone-Verbindung zwischen der GWDG und dem Theologicum fertiggestellt und am 16. September 2009 in Betrieb genommen. Die Leitungsführung ist dabei komplett vom bisherigen Backbone unabhängig. Dadurch konnte die Ausfallsicherheit des GÖNET-Backbones deutlich verbessert werden. Die Kernrouter an den Standorten GWDG, Fernmeldezenztrale (FMZ) und Theologicum sind nun jeweils untereinander über zwei Glasfaserleitungen verbunden, die jeweils über vollständig unabhängige Kabeltrassen geführt werden. Die neue LWL-Verbindung läuft von der GWDG über den Neuen Botanischen Garten, das Sportinstitut und das Jakob-Grimm-Haus zum Theologicum. Seit dem 21. September 2009 sind die Router-Verbindungen im Kernnetz sowie der SAN-Backbone redundant auf die alten und neuen Glasfaserleitungen verteilt worden, sodass eine Unterbrechung eines der LWL-Kabel für diese Anwendungen keine Dienstunterbrechungen mehr bewirken kann.

Wegen des Neubaus des Schwan-Schleiden-Zentrums im Uni-Nordbereich und der damit zusammenhängenden Neuverlegung der Backbone-Fasern war zwar der alte GÖNET-Backbone zwischen den Standorten Forst und Chemie für einige Wochen komplett unterbrochen. Die Redundanz war während dieses Zeitraums zumindest über eine Glasfaserleitung nicht gegeben. Durch eine leistungsfähige Richtfunkstrecke zwischen der GWDG und dem Blauen Turm im GWZ-Bereich stand dennoch eine Ausfalllösung für den Störungsfall zur Verfügung, der einen Notbetrieb ermöglicht hätte.

Der 4. GÖNET-Bauabschnitt (2010 - 2014) wurde im Dezember 2009 genehmigt. Erste Baumaßnahmen - insbesondere die Erneuerung des Datennetzes der SUB - sind dann bereits Anfang des Jahres 2010 begonnen worden. Die Maßnahme in der SUB schreitet zügig voran, und auch die weiteren Maßnahmen des 4. Bauabschnitts werden planmäßig abgearbeitet. Das Management des Netzes der SUB geht im Zuge des Neuaufbaus von der Verbundzentrale auf die GWDG über.

Ansonsten wurden überwiegend kleinere Erweiterungs- oder Erneuerungsmaßnahmen in den Gebäudenetzen vorgenommen. Strukturelle Änderungen im Backbonebereich (Router- und Firewall-Ersatz, evtl. mit Änderungen im Strukturkonzept) sind erst für 2013 und 2014 geplant. Bis dahin sind zukünftige Backbonestrukturen zu analysieren und zu bewerten.

Sprecher B

X-WiN-Anschluss

Das GÖNET verfügt seit Mai 2009 über eine redundante (zweite) Internet-Anbindung. Diese neue Leitung verbindet den GÖNET-Router in der Fernmeldezentrale der Universität Göttingen mit dem Router des DFN-Vereins in Kassel. Im Fehlerfall wird der Verkehr automatisch von der bestehenden Hauptleitung auf die neue Nebenleitung umgeschaltet. Hiermit wird die bisher schon sehr hohe Verfügbarkeit bzw. Ausfallsicherheit noch ein weiteres Stück verbessert. Auf der Hauptleitung steht eine Übertragungskapazität von 5 Gbit/s permanent zur Verfügung. Technisch ist der Anschluss auf eine Übertragungsrate von 10 Gbit/s ausgelegt, so dass auch für die nähere Zukunft genügend Bandbreite zur Verfügung gestellt werden kann. Auf der Nebenleitung, die im Normalzustand ungenutzt ist, betrug die nutzbare Anschlussbandbreite zunächst nur 1,7 Gbit/s. Seit dem 1. Januar 2011 hat auch die Nebenleitung eine Bandbreite von 5 Gbit/s. Das übertragene Datenvolumen zeigt weiterhin steigende Tendenz. Es beträgt zur Zeit (Stand: Juli 2011) von/zum X-Win ca. 580 TByte im Monat.

Der Verkehr am X-WiN-Anschluss wird durch ein Firewall- und ein Intrusion-Prevention-System (IPS) kontrolliert, um Gefahren durch Hacker und Schadsoftware zu minimieren. Das derzeitige IPS ist vollständig transparent im Datenstrom zum X-WiN angebunden und erlaubt einen maximalen Datendurchsatz von 5 Gbit/s in beide Richtungen.

Die Wirksamkeit der Intrusion Prevention wird durch die Zahl verhinderter Attacken deutlich: Die Anzahl der täglichen Attacken liegt bei ca. 700, von denen ca. 450 als critical, 150 als major und 100 als minor eingestuft werden (Stand: Juli 2011).

In den letzten Monaten sind vorwiegend PHP- sowie HTTP-Attacken erkennbar, welche erfolgreich durch das IPS abgewehrt werden konnten. Die ersten, im Jahr 2006 beschafften IPS erlaubten nur Datendurchsätze von 3 Gbit/s bzw. 1 Gbit/s. Um die X-WiN-Bandbreite vollständig nutzen zu können und die vorübergehend aus dem IPS genommenen übertragungsintensivsten Systeme (FTP-Server und Grid-Systeme der Hochenergiephysiker) wieder über das IPS laufen lassen zu können, wurden die Sicherheitssysteme daher aus D-Grid-Sondermitteln ersetzt bzw. erweitert. Bei Durchsätzen von 10 Gbit/s (Firewall) bzw. 5 Gbit/s (IPS) wurde wieder die volle Bandbreite und alle Systeme abgedeckt werden. Im Juni 2011 wurde ein neues Service-Management-System (Management- und Reporting-Server für Tippingpoint) aufgebaut. Im Juli 2011 wurden weitere Interfaces des neuen sowie des alten IPS an diverse interne Netzwerke (Servernetz, GoeMobile, ESX-Cluster und Institute) angebunden, damit auch interne Angriffe besser erfasst und verhindert werden können. Erst durch das neu beschaffte IPS ist diese Integration in weitere/andere Netze möglich geworden.

Sprecher A

Funk-LAN

Mit ca. 400 Accesspoints im Funk-LAN „GoeMobile“ (Stand: März 2011) stieg die Anzahl der Nutzer in den Jahren 2009, 2010 und Anfang 2011 stetig und erreichte am 12. Januar 2011 mit ca. 1.024 gleichzeitig angemeldeten Nutzern ihren bisherigen Höchstwert.

Das Funk-LAN „GoeMobile“ wurde im Berichtszeitraum mit folgenden Maßnahmen kontinuierlich ausgebaut und damit an die gestiegenen sowie den in nächster Zeit zu erwartenden Anforderungen angepasst:

  • März 2009: Inbetriebnahme einer neuen 802.11n-WLAN-Struktur mit neuen Accesspoints im Neubau der Physik
  • Juni 2009: Programmierung eines Webinterfaces zur einfachen Steuerung des Gästenetzes für einzelne Institute. Hiermit ist es einigen Instituten möglich, selbstständig bei Tagungen ein Gästenetz via WLAN zur Verfügung zu stellen.
  • September 2009: Einbindung der neuen VPN-Gateways (Cisco ASA) in die WLAN-Struktur
  • 1. Halbjahr 2010: Einbindung des eduroam im GoeMobile (siehe Punkt 5)
  • 1. Halbjahr 2010: Aktivierung des automatischen Power- sowie Channelcontrol im gesamten GoeMobile
  • 2./3. Quartal 2010: Auswahl sowie Angebotseinholung und Bestellung der zentralen WLAN-Komponenten (WLAN-Controller MX-2800) zur Erweiterung des WLAN-Clusters und der Ausweitung auf den redundanten Standort in der SUB
  • 2./3. Quartal 2010: Netzwerktechnische Vorbereitungen zur Erweiterung des Clusterbetriebs auf den Redundanzstandort der SUB zum unabhängigen Betrieb des gesamten GoeMobile im Störfall
  • 2./3. Quartal 2010: Ausweitung der Gastnetzzugänge für Tagungen mittels Trapeze SmartPass. Mittlerweile wird der SmartPass-Zugang von folgenden Einrichtungen intensiv genutzt: GWDG, SUB, Oeconomicum, Max-Planck-Institut für biophysikalische Chemie sowie Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Die Administration der Gastzugänge im Rahmen des SmartPass erfolgt autonom durch Administratoren in den einzelnen Institutionen für den jeweils eigenen Bereich.
  • 3. Quartal 2010: Einführung des eduroam (siehe Punkt 5) und damit verschlüsselter Zugang zum Funk-LAN mit dem Verfahren EAP/TLS (TTLS sowie PEAP). Dadurch ist für die Benutzer ein einfach einzurichtender Zugang zum Funk-LAN unter Verwendung der bereits in modernen Betriebssystemen vorhandenen Clients möglich.
  • 3./4. Quartal 2010: Erweiterung des 802.11n-Betriebes auf zentrale Standorte
  • 3./4. Quartal 2010: Planung/Bestellung und Austausch der alten WLAN-Controller (MX-200) durch leistungsfähigere Controller (MX-2800), um den redundanten Betrieb von 802.11n sicherzustellen
  • 3./4. Quartal 2010: Auslagerung von zwei WLAN-Controllern in die SUB zur Sicherstellung des redundanten Betriebs im GoeMobile



Sprecher B

Education Roaming

Eduroam (Education Roaming) ermöglicht Mitarbeitern und Studierenden von partizipierenden Universitäten und Organisationen den Internetzugang an den Standorten aller teilnehmenden Organisationen unter Verwendung ihres eigenen Benutzernamens und Passwortes via Wireless LAN. Das deutsche Forschungsnetz des DFN-Vereins bietet ebenfalls ein solches Roaming innerhalb Deutschlands an, ist aber auch der eduroam-Initiative beigetreten. Mittlerweile sind fast alle europäischen Länder und eine große Anzahl Länder weltweit bei eduroam vertreten und immer mehr Universitäten der jeweiligen Länder schließen sich mit ihren Forschungsnetzen an. Seit Mai 2010 ist eduroam im GÖNET via Funk-LAN vollständig verfügbar. Es werden mittlerweile alle Varianten des eduroam hinsichtlich Verschlüsselung angeboten (EAP(T)TLS und PEAP). Das DFN-Roaming wurde zugunsten des eduroam Anfang Juni 2010 im GoeMobile deaktiviert.

Sprecher A

Göttinger Grid-Ressourcen-Zentrum GoeGrid

Die GWDG befasst sich seit 2004 intensiv mit der Grid-Technologie und unterstützt aktiv die D-Grid-Initiative. Gemeinsam mit den drei D-Grid-Communities mit Beteiligung aus Göttinger Institutionen (TextGrid, MediGRID und HEP Grid) und dem Institut für Theoretische Physik der Georg-August-Universität Göttingen hat die GWDG im Jahre 2008 das Grid-Ressourcen-Zentrum Göttingen (GoeGrid) ins Leben gerufen. Im Rahmen von GoeGrid werden von der GWDG die von den Partnern bereitgestellten Grid-Ressourcen betrieben und nach den D-Grid-Regeln den verschiedenen Communities zugänglich gemacht.

Das Göttinger Grid-Ressourcen-Zentrum GoeGrid wurde im Frühjahr 2009 um Speicherkapazitäten für die TextGrid-Community (200 TByte Platten und 200 TByte Archiv) und für die Teilchenphysik (300 TByte Platten) erweitert. Weiterhin konnten Netzkomponenten zur 10 GB-Anbindung der Grid-Ressourcen beschafft werden. Für die Services@MediGRID-Community konnte ein Visualisierungs-Cluster beschafft werden, der von der Medizinischen Informatik in den Räumen des Rechenzentrums der Medizinischen Fakultät betrieben wird und dort durch die Community genutzt werden kann. Diese Erweiterungen konnten durch die 2008 vom BMBF (Bundesministerium für Bildung und Forschung) durchgeführte Sondermaßnahme zur Verbesserung der Ausstattung des D-Grid realisiert werden, aus der für den gemeinsamen Antrag der GWDG und der Göttinger Teilnehmer der D-Grid-Communities Services@MediGRID (Med. Informatik), TextGrid (SUB) und HEP Grid (II. Physik) insgesamt mehr als 1 Mio. € genehmigt wurden. Das GoeGrid stellt nach allen Erweiterungsmaßnahmen insgesamt 2.484 Rechenkerne mit einer Maximalleistung von 26,85 TeraFlop/s, 800 TByte Massenspeicher und 230 TByte Archivspeicher bereit (Stand: April 2011).

Die GWDG ist seit Mitte 2009 an zwei neuen D-Grid-Projekten der 3. Förderrunde des BMBF für die Weiterentwicklung des D-Grid beteiligt:

Im Projekt OptiNum-Grid, das von der GWDG als Konsortialführer initiiert wurde, werden unter der Projektleitung der GWDG mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie Dienste und Geschäftsmodelle entwickelt, die den Grid-Zugang zu Verfahren der numerischen Simulation und Optimierung bereitstellen werden. Hierfür werden vom BMBF insgesamt ca. 1,5 Mio € zur Verfügung gestellt.

In einem weiteren Projekt, D-Grid Scheduler Interoperability (DGSI), wird die D-Grid-Nutzung mit unterschiedlichen lokalen Schedulern (PBS, Grid-Engine, LSF, GWES, …) ermöglicht.

Durch die Mitarbeit der GWDG an diesen D-Grid-Entwicklungen wird Göttingen als Grid-Standort weiter gestärkt.

Sprecher B

Parallelrechnersysteme und Compute-Server

Einleitung

Numerische Simulation hat sich als methodisches Werkzeug in allen Bereichen naturwissenschaftlicher Forschung und technischer Entwicklung etabliert. Die numerische Methode ist die Basis für die Behandlung aktueller Fragestellungen; der Zugang zu leistungsfähigen Rechensystemen und der kompetente Einsatz der Rechenleistung ist oftmals ein entscheidender Faktor für die Erzielung von international beachteten neuen Forschungsergebnissen.

Es gehört deshalb zu den Aufgaben der GWDG, den Wissenschaftlern der Universität Göttingen und der Max-Planck-Gesellschaft auf dem Gebiet der numerischen Simulation national und international konkurrenzfähige Arbeitsmöglichkeiten zu schaffen. Dabei kann, soweit hochparallele Anwendungen mit sehr großem Rechenbedarf anfallen, auf der lokalen Ebene nur die Bereitstellung von Systemen für Entwicklung und Test paralleler Anwendungen und zur Durchführung von Vorstudien geleistet werden. Die eigentliche Produktionsphase solcher Anwendungen ist auf regionale oder überregionale Hoch- und Höchstleistungsrechner angewiesen. Die GWDG berät und unterstützt die Wissenschaftler bei der Nutzung der externen Rechnersysteme und unterhält engen Kontakt zu deren Betreiberinstitutionen, insbesondere mit den für die Benutzer der GWDG besonders wichtigen Institutionen Norddeutscher Verbund für Hoch- und Höchstleistungsrechnen (HLRN) und Rechenzentrum Garching der MPG (RZG).

Bei einer Vielzahl von Forschungsprojekten fallen numerische Simulationsanwendungen an, die von ihrer Größe her nicht auf die teuren Ressourcen der überregionalen Höchstleistungsrechner angewiesen sind. Für diese stellt die GWDG lokale Rechenressourcen bereit. Die Beschaffung und der Betrieb der hierfür notwendigen Rechnersysteme erfolgt in Absprache mit dem HLRN und dem RZG. Mit der Standardisierung der Programmierumgebungen zur Parallelverarbeitung und der damit verbundenen weiten Verbreitung paralleler Anwendungen hat sich aus Benutzersicht der Unterschied zwischen sequentieller und paralleler Bearbeitung vermindert. Es wird die für die jeweilige Fragestellung effizienteste Methode – sequentiell, shared-memory parallel oder message-passing parallel – eingesetzt. Um die unterschiedlichen Anforderungen dieser verschiedenen Anwendungsklassen möglichst effizient und kostengünstig zu bedienen, betreibt die GWDG Shared-Memory-Systeme und Cluster-Systeme mit verteiltem Speicher und unterschiedlich leistungsfähigen Kommunikationsnetzen, deren Kapazität dem jeweiligen Bedarf für die unterschiedlichen Klassen angepasst ist. Aus Benutzersicht bietet die GWDG eine möglichst weitgehende Integration von Rechenressourcen für sequentielle und parallele Anwendungen an. Diese Integration manifestiert sich in einem einheitlichen Managementsystem für parallele und sequentielle Rechner und in einem gemeinsamen System zur Ressourcenverwaltung bei der Nutzung der unterschiedlichen Systeme.

Neben den überregionalen und lokalen Rechenkapazitäten stehen einzelnen Instituten und Forschungsgruppen oftmals auch eigene Rechenressourcen zur Verfügung, die aus Drittmitteln für einzelne Projekte oder aus Berufungsmitteln für besondere Forschungsschwerpunkte finanziert werden. Die GWDG bietet an, die Beschaffung und den Betrieb dieser gesonderten Rechenressourcen zu übernehmen. Bei der Auswahl und Beschaffung kommen die Erfahrung der GWDG im HPC-Bereich und die engen Kontakte zu den wichtigsten Herstellerfirmen den Instituten zugute, zusätzlich führt der größere Umfang gebündelter Beschaffungen in der Regel zu deutlich günstigeren Preisen. Der gemeinsame Betrieb der aus Institutsmitteln beschafften Ressourcen mit den GWDG-eigenen Ressourcen entlastet die Institute von der Notwendigkeit zur Bereitstellung eigener Infrastruktur für den Rechnerbetrieb und spart eigenen Personalaufwand für die Rechneradministration. Der größte Vorteil der zentralen Ressourcenintegration liegt in der gemeinsamen Nutzung durch die unterschiedlichen Nutzergruppen, die einen Lastausgleich über zeitlich variierende Bedarfssituationen der unterschiedlichen Nutzergruppen erlaubt und damit zu einer besseren Gesamtauslastung der Ressourcen führt. Diese Integration von institutseigenen Ressourcen in die HPC-Ressourcen der GWDG ist inzwischen mehrfach praktiziert worden und in allen Fällen als sehr vorteilhaft erfahren worden.

Die für die oben angesprochenen Anwendungen mittlerer Rechenkomplexität der Forschergruppen aus Universität und Max-Planck-Gesellschaft bei der GWDG bereitgestellten HPC-Ressourcen müssen nach Menge und technologischer Ausstattung dem aktuellen und dem für die Zukunft sich abzeichnenden Bedarf angepasst werden. Hierfür stellen die beiden Träger der GWDG, die Universität Göttingen und die Max-Planck-Gesellschaft, alle fünf Jahre einen größeren Investitionsbetrag zur Beschaffung neuer HPC-Systeme bereit und in den dazwischen liegenden Jahren kleinere Beträge zur Abrundung und Erweiterung der vorhandenen Systeme.

Im Folgenden werden die wichtigsten Ereignisse und Veränderungen bei den Parallelrechnern im Berichtszeitraum 2009/2010 vorgestellt.

Sprecher A

Entwicklung

Status Anfang 2009

Zu Beginn des Berichtzeitraums, also Anfang 2009, wurden bei der GWDG Parallelrechnersysteme und Compute-Server mit einer Gesamtleistung von 11,30 TeraFlop/s betrieben. Diese waren im Einzelnen:

  • Altix 4700 (SGI): Shared-Memory-Multiprozessor mit 128 über das NUMALink4-Kommunikationsnetz verbundenen Rechner-Blades. Jedes Blade enthält zwei Intel-Itanium-2-Prozessoren mit je zwei Rechenkernen der Taktrate 1,6 GHz. Das System hat eine maximale Leistung von 3,28 TeraFlop/s, einen gemeinsamen Hauptspeicher der Größe 1.448 GByte und 3,7 TByte lokalen Plattenspeicher. Aufgrund der finanziellen Beteiligung bei der Beschaffung des Systems stehen 40 % der Systemressourcen der Abteilung von Prof. Christensen des MPI für Sonnensystemforschung zur Verfügung.
  • Woodcrest-Cluster (MEGWARE): In diesem Cluster sind 151 Rechenknoten über ein Infiniband-Kommunikationsnetz zusammengeschlossen. Jeder Knoten enthält zwei Intel-Woodcrest-Prozessoren mit je zwei Rechenkernen der Taktrate 3 GHz. Der Cluster hat eine maximale Leistung von 7,25 TeraFlop/s, einen verteilten Speicher von 1.208 GigaByte und 60 TeraByte lokalen Plattenspeicher.
  • MediGrid-Cluster: In den Woodcrest-Cluster sind weitere elf Rechenknoten integriert, die vom BMBF als D-Grid-Sonderinvestition finanziert wurden und die von der GWDG für die MediGRID-Community im D-Grid betrieben werden.
  • Opteron-Linux-Cluster (MEGWARE): der Cluster besteht aus 32 Knoten AMD Dual Opteron (2,2 GHz Taktrate) und jeweils 16 GByte Speicher, die durch ein leistungsfähiges Infiniband-Kommunikationsnetz verbunden sind. Er hat eine maximale Leistung von 0,40 TeraFlop/s.
  • Compute-Server für sequentielle Anwendungen: Das System besteht aus acht Systemen AMD Opteron (2,4 GHz Taktrate) mit je vier Prozessoren und 32 GByte Hauptspeicher. Es hat eine maximale Leistung von 0,15 TeraFlop/s.
  • Ein System IBM pSeries690 Regatta mit 32 Prozessoren IBM Power4 mit einer maximalen Leistung von 0,22 TeraFlop/s.



Sprecher B

Neubeschaffungen

Wegen des steigenden Bedarfs nach Rechenleistung für numerische Simulationen und der Außerbetriebnahme von veralteten Parallelrechnern mit vergleichsweise geringer Leistung, aber hohem Stromverbrauch wurde Anfang 2010 ein modernes leistungsfähiges System beschafft. Unter den zur Auswahl stehenden Clustersystemen mit Hochgeschwindigkeits-Kommunikationsnetz war das Angebot von NEC zwar nicht dasjenige mit der höchsten Rechenleistung, aber das unter Berücksichtigung des Energieverbrauchs wirtschaftlichste. Das System wurde gemeinsam mit dem MPI für Sonnensystemforschung in Katlenburg/Lindau und dem Institut für Geophysik der Universität Göttingen beschafft. Wie schon mehrfach in der Vergangenheit erfolgreich mit entsprechenden Synergieeffekten bei Beschaffung, Administration und Auslastung praktiziert, hatten damit drei Einrichtungen ihre zur Verfügung stehenden Mittel in einer gemeinsamen Beschaffung eines Rechenclusters gebündelt, der bei der GWDG betrieben wird und von den Partnern anteilig entsprechend ihrer finanziellen Beteiligung genutzt werden kann.

Der neue Nehalem-Cluster

Der Parallelrechner NEC Nehalem-Cluster wurde im Januar 2010 geliefert und ging nach dem erfolgreichen Durchlaufen eines vierwöchigen Probebetriebs Mitte März 2010 in den normalen Benutzerbetrieb. „Nehalem“ ist der Name, den Intel für seine neuen Quad-Core-Xeon-Prozessoren mit 64-Bit-Unterstützung verwendet, die in den Rechenknoten zum Einsatz kommen.

Der knapp 1 Mio. € teure NEC Nehalem-Cluster enthält insgesamt 188 Rechenknoten mit je zwei Quad-Core-Prozessoren, 36 GByte Hauptspeicher und 1 TByte Plattenspeicher, von denen 900 GByte für den lokalen Scratch-Bereich zur Verfügung stehen. Die maximale Rechenleistung aller 1.504 Cores beträgt 15,2 TeraFlop/s. Damit hat sich durch die Inbetriebnahme des neuen Clusters die Leistung der für die Gesellschafter betriebenen Parallelrechnersysteme auf ca. 26 TeraFlop/s mehr als verdoppelt. Der Zugangsrechner hat ebenfalls zwei Quad-Core-Prozessoren, aber 48 GByte Hauptspeicher und 1 TByte Plattenspeicher, von denen 900 GByte für einen Work-Bereich zur Verfügung stehen, der per NFS im gesamten Cluster gemountet ist. Das neue System war bereits einige Wochen nach der Aufnahme des Nutzerbetriebs nahezu voll ausgelastet: ein Beleg für die Notwendigkeit regelmäßiger Erweiterungen der Parallelrechnerkapazität und den Erfolg des bewährten Konzepts des zentralen Betriebs von gemeinsam beschafften und genutzten IT-Ressourcen verschiedener Einrichtungen im Rechenzentrum der GWDG. Der NEC-Cluster wird in vier wassergekühlten Schränken mit einer Stellfläche von 3,20 x 1,30 m betrieben, der Energieverbrauch des Systems unter Volllast wird bei ca. 56,4 kW liegen.

Die Neubeschaffung des NEC-Cluster-Systems hat im Bereich der Anwendungen mit Message-Passing-Parallelität und geringeren Kommunikationsanforderungen zu einer Entspannung des Nutzungsengpasses beigetragen. Wie die im Herbst 2009 von der GWDG durchgeführte Bedarfserhebung gezeigt hat, gibt es aber auch einen weiter steigenden Bedarf für Anwendungen mit hohem Kommunikationsbedarf. Diese sind auf eng gekoppelte Multiprozessoren mit shared memory angewiesen, wobei in der Regel der Skalierungsgrad, d. h. die Zahl der parallel nutzbaren Prozessorkerne für die einzelne Anwendung gering (< 64) ist. Zudem wurde bei dieser Umfrage für eine Reihe von Projekten die Notwendigkeit einer hohen Geschwindigkeit zur Aus- oder Eingabe der dabei erzeugten oder zu bearbeitenden Daten betont.

Der neue Magny-Cours-Cluster

Diesen beiden Anforderungen sollten durch die Beschaffung eines Clusters von moderat parallelen Shared-Memory-Systemen mit jeweils 32 bis 64 Prozessorkernen und eines für die Parallelrechner dedizierten schnellen Ein-/Ausgabe-Systems entsprochen werden. Dieser Beschaffungsmaßnahme hat sich das Institut für Astrophysik der Universität angeschlossen, da in dem dort neu etablierten Forschungsgebiet computational astrophysics ähnliche Anforderungen für Shared-Memory-Anwendungen und schnelle Ein-/Ausgabe-Verarbeitung anfallen. Aus den bis zum Stichtag 11. Oktober 2010 im Rahmen eines beschränkten Verfahrens abgegebenen Angeboten wurde das von MEGWARE unter Berücksichtigung der in der Ausschreibung vorgegebenen Leistungskriterien als das wirtschaftlichste ausgewählt. Der neue, 660.000 € teure Rechencluster wurde dann Anfang 2011 geliefert, installiert und ist nach erfolgreichen Tests Ende Februar 2011 in den Benutzerbetrieb gegangen. Er verdoppelt mit seiner Rechenleistung von 27,9 TeraFlop/s die bis dahin zur Verfügung stehende Gesamtrechenleistung aller Parallelrechnersysteme der GWDG und stellt damit das zur Zeit leistungsstärkste Rechnersystem bei der GWDG dar. Der neue sog. Magny-Cours-Cluster der Firma MEGWARE enthält insgesamt 64 Rechenknoten mit jeweils vier AMD-Zwölf-Core-Prozessoren vom Typ Magny-Cours (also insgesamt 3.072 Cores), die über ein sehr schnelles Kommunikationsnetzwerk miteinander verbunden sind. Er besitzt einen verteilten Hauptspeicher von 8,2 TByte und einem verteilten lokalen Plattenspeicher von 64 TByte. Der Energieverbrauch des gesamten Systems beträgt 54,6 kW. Damit ist das neue System gegenüber dem zuletzt vor einem Jahr beschafften, schon besonders energieeffizienten NEC-System nochmals um 60 % energieeffizienter bezogen auf die Peak-Leistung pro Core.

Zeitgleich mit dem neuen MEGWARE-Cluster wurde auch ein gemeinsamer Massenspeicherbereich für die Parallelrechner-Cluster auf Basis des bei der GWDG bereits eingesetzten globalen Filesystems StorNext von Quantum realisiert. Die Konfigurationsdaten des in die IPStor-Virtualisierung eingebundenen Systems sind im Einzelnen:

  • Acht SAN-Server und zwei Metadaten-Server für 500 LAN-Clients
  • Erweiterung des globalen Filesystems StorNext
  • 0,5 TByte SSD-Cache für schnellen Schreib-Zugriff
  • 10-Gb-Ethernet-Netz zwischen SAN-Servern und allen Parallelrechner-Clustern
  • Gesamtleistung: 236 TByte netto Kapazität, Mindestdurchsatz: 2 GByte/s



Sprecher A

Abschaltung alter Parallelrechnersysteme

In der Einleitung wurde auf den fünfjährigen Zyklus der Investitionen zur Neubeschaffung von Parallelrechnersystemen hingewiesen. Durch die rasante Weiterentwicklung von Halbleitertechnologie und Rechnerarchitektur vervielfältigt sich die Leistungsfähigkeit von Parallelrechnern in diesem Zeitraum von fünf Jahren um den Faktor 10 bis 20. Das Anwachsen der bei der GWDG installierten Parallelrechnerleistung belegt diese Entwicklung.

Die steigende Leistung der neubeschafften Systeme macht die Nutzung der veralteten Systeme aus Anwendersicht unattraktiv und ihren Betrieb aus Rechenzentrumssicht unwirtschaftlich. Die Abschaltung und der Abbau veralteter Systeme erfolgt daher regelmäßig in kurzem zeitlichem Abstand zur Inbetriebnahme der neuen Hardware.

Der letzte von vier IBMpSeries690-Rechnern, der Rechner gwdk084, wurde am 1. Februar 2009 außer Betrieb genommen, nachdem die drei noch älteren pSeries690-Systeme gwdk081, gwdgk082 und gwdk083 schon am 1. Dezember 2007 abgeschaltet worden waren. Damit wurde eine beträchtliche Einsparung an Energiekosten erreicht bei einer vergleichsweise geringen Reduzierung der insgesamt bei der GWDG verfügbaren Rechenleistung.

Sprecher B

Planungen und Erweiterung

Für die Jahre 2012 und 2013 ist wieder eine größere Neubeschaffung von Parallelrechnerleistung geplant, damit dann die fünf Jahre alten Systeme SGI Altix und MEGWARE Woodcrest durch leistungsfähigere Systeme ersetzt werden können.

Sprecher A

Mailservices

Migration des Exchange-Mailsystems

Die für Anfang des Jahres 2009 geplante Umschaltung des Frontend-Clusters von Exchange 2003 auf Exchange 2007 (unter Beibehaltung von drei noch weiterhin benötigten „Exchange-2003-Inseln“) sowie die anschließende sukzessive transparente Migration der Mailboxen von insgesamt ca. 28.000 Exchange-Nutzern auf die Exchange-2007-Systeme verzögerten sich zunächst wegen überraschend aufgetretener Anforderungen zur Mandantenfähigkeit, die erst durch umfangreiche Änderungen im Active Directory realisiert werden konnten. Auch die geplanten Tests der erweiterten Exchange-2007-„Unified Communication“-Funktionalitäten, um diese bei Bedarf als neue Dienste anzubieten, verzögerten sich dadurch entsprechend. Nachdem diese Anforderungen erfüllt waren, musste die Migration der E-Mail-Postfächer auf Exchange 2007 aufgrund von Inkompatibilitäten mit häufig genutzten Mail-Klienten ausgesetzt werden. Die erforderlichen Softwarekorrekturen sollten nach Auskunft des Herstellers vermutlich erst mit der Nachfolgeversion Exchange 2010 zur Verfügung stehen. Die Migration zu Exchange 2007 erfolgte daher zunächst nicht generell, sondern nur auf expliziten Benutzerwunsch (z. B. für die neuen Mac-OS-Klienten, die auf mindestens Exchange 2007 angewiesen sind).

Nachdem Exchange 2010 dann Anfang 2010 zur Verfügung stand, konnten die Arbeiten zum Einsatz dieser neuen Version und damit zur Migration endlich fortgesetzt werden. Eine erste Testinstallation eines Exchange-2010-Clusters hat dann leider ergeben, dass Exchange 2010 insbesondere wegen fehlender Mandantenfähigkeit derzeit noch nicht für einen Produktiveinsatz bei der GWDG geeignet ist. Der Hersteller arbeitet an einer entsprechenden Funktionserweiterung. Diese wird voraussichtlich im Laufe des zweiten Halbjahres 2011 mit dem Service Pack 2 zur Verfügung stehen. Parallel werden von der GWDG 3rd-Party-Erweiterungen für die Herstellung der Mandantenfähigkeit in Exchange 2010 evaluiert. Durch Doppelung/Spiegelung aller Komponenten ist der Cluster von vornherein katastrophensicher ausgelegt. Die ebenfalls redundant ausgelegten Load Balancer ermöglichen eine dynamische und gleichmäßige Lastverteilung auf alle beteiligten Komponenten.

In der Zwischenzeit wurde wegen der wachsenden Nutzung des Exchange-Systems die alte Exchange-2003-Umgebung durch Einsatz weiterer Hardware-Ressourcen konsolidiert und entsprechend den Anforderungen ausgebaut. Im zentralen Exchange-2003-Backend-Cluster wurden Ende Oktober 2010 ca. 40.000 Postfächer bedient. Hinzu kamen noch dezentrale Exchange-2003-Postfächer (Zentralverwaltung der Universität Göttingen und MPI für Experimentelle Medizin) sowie das UMG-Pilotprojekt, sodass zu diesem Zeitpunkt insgesamt ca. 43.000 Exchange-Postfächer in der Exchange-2003-Struktur beheimatet waren.

Die Konsolidierung der Exchange-2003-Hardware wurde Ende Oktober 2010 erfolgreich abgeschlossen: Fünf Backend-Server waren auf neue Hardware gebracht, drei Frontend-Server auf neuer Hardware virtualisiert, und zwei weitere alte Exchange-Server sind durch virtuelle Server im VMware-ESX-Cluster ersetzt worden.

Sprecher B

Mailfilter

Die GWDG hat schon 2006 damit begonnen, Lösungen zu untersuchen, die bereits den Zugang von Spam-versendenden Systemen unterbinden. Das System der Firma IronPort wurde nach ausführlichen Tests als am besten geeignet bewertet. Es bietet neben bekannten Verfahren wie Virenüberprüfung und Bewertung des Inhalts einen sogenannten Reputations-Filter: IronPort führt eine Datenbank, in der für sendende Systeme die Wahrscheinlichkeit geführt wird, dass dieses System Spam versendet. Die Datenbank wird laufend gepflegt und von den weltweit installierten IronPort-Systemen mit (anonymisierten) Informationen versorgt. Der Betreiber des IronPort-Systems entscheidet dann, ab welcher Bewertung Verbindungen abgewiesen werden.

Im Rahmen der Umstellung der Verwaltungskonten der MPG auf den Exchange-Service der GWDG wurden dann von der MPG zwei IronPort-Systeme beschafft, die die Filterung des Mailverkehrs der Konten bei der GWDG bzw. Instituten in Göttingen übernehmen. Außerdem wird der Service allen Instituten angeboten. Die Voraussetzung dafür ist die Bereitstellung aller im Institut verwendeten E-Mail-Adressen, da nur so Nachrichten an falsche Empfangsadressen bereits im Iron-Port-System abgewiesen werden können. Die Systeme können im Load-Balancing-Betrieb arbeiten, so dass bei Ausfall eines Systems das verbleibende den Verkehr übernimmt. Durch eine räumlich getrennte Aufstellung wird eine weitere Erhöhung der Verfügbarkeit angestrebt.

Die beiden beschafften Iron-Port-Systeme wurden im Frühjahr 2009 in Betrieb genommen und für den Spam-Schutz der Verwaltungsdomänen der MPG eingesetzt, mit dem erwarteten Erfolg. Die Einbeziehung weiterer Max-Planck-Institute in diesen Spam-Schutz begann dann kurze Zeit später mit dem MPI für Festkörperforschung in Stuttgart.

Durch die Inbetriebnahme des IronPort-Systems gab es zunächst zwei Systeme, über die die Virenfilterung und die Spam-Bewertung eingehender Mails abgewickelt wurde: Neben dem IronPort-System für die MPG noch ein schon mehrere Jahre im Einsatz befindliches Public-Domain-Linux-System für die Universität Göttingen. Bedingt durch die unterschiedlichen Mailbox-Zahlen der Gesellschafter lag dabei das Hauptgewicht der Nutzung auf dem Linux-System. Für den Monat September 2009 wurden über das Linux-System 4,0 Mio. Mails empfangen bei 51 Mio. Verbindungswünschen. Die um eine Größenordnung höhere Zahl der Verbindungswünsche gegenüber den empfangenen Mails zeigt grob die enorme Menge an Spam-Mails. Im selben Monat wurden über die Appliances der Firma Cisco/IronPort 0,24 Mio. Mails empfangen bei 5,28 Mio. Verbindungswünschen.

Die bessere Spam-Erkennungsrate der IronPort-Systeme (Faktor 1,7) zeigt sich hier im deutlich verschiedenen Verhältnis der empfangenen Mails zur Zahl der Verbindungswünsche auf beiden Systemen. Der Virenschutz auf den IronPort-Systemen erfolgt mit Sophos-Software, deren Lizenzen im niedersächsischen Sophos-Landesvertrag bereitgestellt werden. Nach der mit Sophos erfolgreich verhandelten Abspaltung der Lizenzen aus diesem Vertrag in das IronPort-System der GWDG können nun auch die E-Mails der Universität Göttingen einschließlich der Studierenden über das deutlich bessere IronPort-System geleitet und geschützt werden. Im Jahr 2010 wurden dann noch weitere Max-Planck-Institute auf Wunsch an das IronPort-System angebunden.

Sprecher A

Mail-Archivierung

In einem gemeinsamen Projekt der Abteilung IT der Universitäts-Zentralverwaltung und der GWDG ist ein System zur E-Mail-Archivierung ausgewählt worden (Atempo Digital Archive for Messaging, kurz ADAM). Nach Installation und Konfiguration der Software im September 2010 wurden zunächst die Postfächer der Universitäts-Zentralverwaltung in einem Probebetrieb schrittweise der Archivierung unterzogen. Aus dem während dieser Zeit gesammelten Erfahrungen mit dem System resultierten einige Anpassungen und Verbesserungen. Im Laufe des Jahres 2011 sollen in überschaubaren Schritten weitere Benutzergruppen erfasst werden, da die Einführung der Archivierung im Dialog mit den Nutzern erfolgen soll.

Die Zielsetzungen für den Einsatz des Archivierungssystems sind:

  • Vermeidung von persönlichen Outlook-PST-Dateien auf lokalen Festplatten oder Netzwerk-Laufwerken
  • sichere Archivierung von E-Mail
  • Entlastung der Exchange-Postfächer
  • Entlastung der Exchange-Datenbanken

Der Archivserver durchsucht Postfächer auf den Exchange-Backend-Servern und archiviert Nachrichten nach einstellbaren Kriterien wie Alter, Größe und Art der Anhänge oder Größe des Postfachs. In den Postfächern werden Verweise hinterlassen, die nach automatisierter Installation eines Plug-Ins unter Outlook einen anwendertransparenten Zugriff auf archivierte E-Mail gestatten.

Sprecher B

Servervirtualisierung

Dem steigenden Hardware- und Betreuungsaufwand zum Betrieb der stetig wachsenden Zahl von Servern mit unterschiedlichsten Funktionen kann mit Servervirtualisierung wirksam begegnet werden. Dabei bedienen wenige leistungsfähige Hardwaresysteme über eine Virtualisierungsschicht eine Vielzahl von Serverinstanzen mit unterschiedlichen Betriebssystemen und Funktionen. Die GWDG hatte im Jahr 2006 nach dem Produktvergleich verschiedener Virtualisierungssysteme einen prototypischen Betrieb zur Servervirtualisierung aufgebaut. Mit den Erfahrungen aus diesem Testsystem wurde Ende 2006 die Servervirtualisierung bei der GWDG produktiv eingesetzt und wird zunehmend von den Kunden genutzt. In der Virtualisierung befinden sich unterschiedliche Systeme:

  • Server von Kunden, die im Rahmen der Virtualisierung von der GWDG installiert und betrieben werden.
  • Serversysteme, die bei der GWDG Dienste zur Verfügung stellen.
  • Serversysteme, die aus einer früheren Variante der Servervirtualisierung migriert wurden.
  • Testsysteme der Kunden, mit denen Funktionalitäten der Betriebssysteme geprüft werden und die damit keine relevanten Serverdienste zur Verfügung stellen.
  • Hochverfügbare Server, die in der Virtualisierung redundant ausgelegt sind und Kerndienste im Netzwerk übernehmen (Authentifizierung etc.)

Im Berichtszeitraum 2009/2010 wurde die Servervirtualisierung laufend erweitert und dem ständig steigenden Bedarf der Kunden angepasst. Folgende Maßnahmen (in chronologischer Reihenfolge) wurden durchgeführt:

  • Erweiterung der Infrastruktur um zwei auf insgesamt vier HP-Server (Mai/Juni 2009):
2 x HP Proliant DL580 G5 mit jeweils 4 QuadCore-Xeon-Prozessoren mit 2,4 GHz und 128 GByte Speicher
2 x HP Proliant DL580 G5 mit jeweils 2 QuadCore-Xeon-Prozessoren mit 2,4 GHz und 128 GByte Speicher
  • Inbetriebnahme eines redundanten ESX-Servers im Klinikum, welcher ausschließlich die Controller für das Active Directory bereitstellt (Juni 2009)
  • Installation neuer, virtueller Server beider Gesellschafter, teilweise als hochperformante Systeme mit vier CPUs und 8 oder 16 GByte Speicher
  • Konsolidierung und Entfernung nicht mehr benötigter virtueller Server
  • Aufbau eines erweiterten Monitorings unter Nagios
  • Umstellung des gesamten VMware-Clusters von der Version ESX 3.5 auf vSphere 4.0
  • Einrichtung der High-Availability-Capabilities bei vSphere 4.0 zur Erlangung vollständiger Redundanz
  • Abschluss der Planungen des redundanten RZ-Standortes in der SUB hinsichtlich VMware vSphere
  • Erweiterung des VMware-Clusters um zwei weitere HP-Server auf insgesamt sechs Server
  • Erweiterung des VMware-Clusters auf den redundanten Standort SUB
  • Ausbau des Clusters auf insgesamt neun Host-Server (neun HP Proliant-Server mit insgesamt 88 Cores und 1,3 TByte Hauptspeicher)
  • Anbindung des BlueArc-Storage über NFS als weitere Massenspeichervariante neben FibreChannel (Dezember 2010 - April 2011)
  • Einrichtung der getrennten 10Gbit/s-LWL-Strecke zwischen GWDG und SUB für schnelles vMotion im VMware-Cluster zur Sicherung des redundanten Standortes in der SUB
  • 4. Oktober 2010: Aufnahme des Produktivbetriebes des redundanten Standortes in der SUB hinsichtlich der Servervirtualisierung, um somit sicherzustellen, dass selbst im Katastrophenfall (Wegfall eines Standortes) die wichtigsten Serversysteme innerhalb der Virtualisierung funktionsfähig bleiben.
  • Leistungstest hinsichtlich Proof of Concept zur Virtualisierung von Exchange 2010 in VMware (Oktober 2010 - März 2011)
  • Weitere Inbetriebnahme virtueller Server der Universität (insb. auch SUB) sowie der Max-Planck-Gesellschaft (November 2010 - April 2011)

Die momentane CPU-Auslastung ermöglicht noch Reserven für weitere Gastsysteme, wenngleich eine Erweiterung des Clusters um weitere Hosts mittelfristig erforderlich sein wird. Die Auslastung des Memory der Host-Server liegt im Mittel bei ca. 52 % und erreicht derzeitig keine kritische Grenze. Bei Ausfall eines Hosts kann der Betrieb der entscheidenden Serversysteme derzeit sichergestellt werden. Die weitere Planung im Bereich der virtuellen Server sieht folgende Schritte vor:

  • Beschaffung und Einsatz von schnellen 10Gbit/s-Interfaces für jeden ESX-Host zur Erweiterung der Netzwerkleistung
  • Umstrukturierung der Netzwerkstruktur auf einen eigenen IP-Netzwerkbereich für VMware
  • Erweiterung des Dienstleistungsangebots bei der Servervirtualisierung um die Bereiche Firewall sowie Intrusion Prevention durch das Tippingpoint IPS (Intrusion Prevention System)
  • Migration von VMware 4.0 zu Version 4.1. Hierdurch können erweiterte Möglichkeiten hinsichtlich Anbindung und Betrieb von Massenspeicher genutzt werden.
  • Erweiterung der Anbindung des BlueArc-Storage an den VMware-Cluster zum produktiven Einsatz bei der Servervirtualisierung
  • Installation einer abgetrennten VMware-Umgebung für den Exchange-2010-Cluster auf zwei Host-Systemen



Sprecher A

Identity Management

Verzeichnisdienste bilden die Basis für die Verwaltung von Identitäten (Benutzerkonten), Gruppen, Rechten und allgemeinen Informationsstrukturen in IT-Umgebungen. Zur Verknüpfung mehrerer Verzeichnisse, insbesondere auch unterschiedlicher Organisationen, bietet sich ein Meta-Directory an. Darüber hinaus speichert ein Directory zukünftig nicht nur Authentifizierungsinformationen, sondern stellt als „Daten-Drehscheibe“ eine gemeinsame Basis für die Verteilung und Verwaltung von Informationen sowie zur Optimierung von Geschäftsabläufen dar. Die GWDG, der Geschäftsbereich IT des Universitätsklinikums Göttingen, die Universität Göttingen und interessierte Einrichtungen der MPG arbeiten im GÖ*-Kontext bereits seit Anfang 2005 an der Realisierung eines entsprechenden Meta-Directory-Systems für die beteiligten Einrichtungen. Das System konnte dann zur Jahresmitte 2006 im Rahmen der Zielsetzungen erfolgreich in den Produktivbetrieb übernommen werden. Zusätzlich wurde Rahmen des Meta-Directory-Projektes ein zentrales Benutzer-Portal für „Self-Service“ Identity Management entwickelt, das seit Mitte Oktober 2006 in Betrieb ist. Es bietet den Benutzern die Möglichkeit, in allen angeschlossenen Systemen ein einheitliches Passwort zu definieren – ein wichtiger Schritt in Richtung eines „Single Password“ am Göttinger Wissenschaftsstandort.

Das Identitätsmanagement (IdM) ermöglicht die Synchronisation von Benutzerkonten (z. B. einheitliche Studierenden-Accounts), Gruppen usw. in den verschiedenen angeschlossenen Systemen sowie eine dezentrale Benutzer-Administration über ein Web-Portal. Diese erlaubt den Instituten die Anlage, Bearbeitung, Sperrung und Verschiebung von Benutzern sowie die Einrichtung von Mail-Weiterleitungen. Zusätzlich lassen sich Benutzern auch E-Mail-Zertifikate für die Verwendung mit Exchange über das Benutzer-Portal zuweisen.

Das IdM für die Max-Planck-Gesellschaft und Universität Göttingen umfasst mittlerweile 36 angebundene Verzeichnisse mit unterschiedlichen Systemen (Windows AD, LDAP, Datenbank und Prozesstreiber).

Die GWDG arbeitet gemeinsam mit dem Rechenzentrum Garching, der Max Planck Digital Library und der IVS-CPT der MPG an der Realisierung einer Shibboleth-Föderation für die MPG (MPG-AAI). Hiermit soll eine sichere sog. Single-Sign-On-Lösung realisiert werden, die dem Benutzer nach einmaliger Anmeldung mit einem einheitlichen Benutzernamen und Passwort Zugang zu unterschiedlichen Web-Anwendungen ermöglicht. Die GWDG bietet hierbei eine Schnittstelle zu den eigenständigen Benutzerverwaltungen der 80 Institute an. Dieser sog. IdP Proxy ermöglicht es den Benutzern der Institute, unter Verwendung ihres lokalen Accounts auf unterschiedliche Dienstleistungen in verschiedenen Föderationen (z. B. der DFN-AAI) zuzugreifen. Im Rahmen der NDS-AAI als Shibboleth-Föderation für das Land Niedersachsen realisiert die GWDG auch für die Georg-August-Universität Göttingen einen Zugriff auf Dienste innerhalb unterschiedlicher Föderationen.

Sprecher B

Speichersysteme

Speichervirtualisierung

Mit immer schneller wachsenden Datenbeständen ist die Realisierung eines zentralen Datenmanagementsystems in verteilten, heterogenen DV-Umgebungen oft unverzichtbar. Storage-Area-Network- (SAN) und Network-Attached-Storage-Systeme (NAS) erhöhen die Effizienz der Administrationstätigkeit, optimieren den Datenzugriff, erhöhen die Ausfallsicherheit und verbessern die Datensicherheit in verteilten Systemen. Zur Flexibilisierung und Optimierung der Massenspeicherverwaltung bietet sich das Konzept einer Speichervirtualisierung an.

Ziel der Speichervirtualisierung ist eine Vereinheitlichung und gleichzeitige Flexibilisierung der Massenspeicherverwaltung und -verteilung innerhalb des SAN der GWDG, das den Massenspeicher für unterschiedliche Nutzergruppen und Anwendungsbereiche zur Verfügung stellt. Durch Aufbau einer sogenannten Virtualisierungsschicht, durch die der komplette Datenverkehr zwischen Rechnern und Massenspeichersystemen geleitet wird, kann auf Rechnerseite die derzeitige Treibervielfalt deutlich reduziert werden (die Rechner „sehen“ über das SAN im Wesentlichen nur noch einen Typ RAID-System, nämlich die Virtualisierungsserver). Auf Seite der angeschlossenen RAID-Systeme eröffnen sich vielfältige neue Möglichkeiten wie Datenmigrationen im laufenden Betrieb sowie Plattenspiegelung und -replikation auch über Herstellergrenzen hinweg. Die Verwaltung und der Betrieb der Plattensysteme unterschiedlicher Hersteller werden flexibilisiert.

Die Speichervirtualisierung der GWDG besteht zurzeit aus vier IPStor-Servern, von denen jeweils zwei als Cluster in einer active-active Konfiguration betrieben werden. Eine active-active Konfiguration bietet im normalen Betrieb (nicht Failover-Fall) den Vorteil einer Lastverteilung auf beiden Servern, wodurch die Leistungsfähigkeit der Virtualisierung erhöht wird. Es ist geplant, eines der bestehenden Cluster durch neue, leistungsfähigere Hardware zu ersetzen. Hierbei wird auch die Anzahl der Fibrechannel-Adapter von vier auf sechs erhöht. Die freiwerdenden Rechner werden dann als Prä-Produktionssystem eingesetzt.

Über die Speichervirtualisierung werden gegenwärtig Massenspeicherressourcen mit einer Gesamtkapazität von 1.088 TByte mit 439 virtuellen LUNs an 149 Hosts bereitgestellt.

Nach der Installation von Version 6.0 der Virtualisierungssoftware NSS (IPStor) im Mai 2009 durch den Hersteller FalconStor ist die Stabilität der gesamten Speichervirtualisierungsumgebung zufriedenstellend.

Die NSS-Versionen 6.0 und höher ermöglichen die Bereitstellung von LUNs mit einer Größe von mehr als 2 TByte. Hierdurch konnte die Anzahl der Pfade, insbesondere zwischen Massenspeichersystemen und IPStor-Servern, wesentlich verringert werden. Somit konnte die Komplexität reduziert und die Administration vereinfacht werden.

Seit September 2010 ist auf allen IPStor-Servern die aktuelle NSS-Version 6.15 im Einsatz. Ab dieser Version können die Fibrechannel-Verbindungen zu den Hosts nicht nur wie bisher active-standby, sondern auch active-active betrieben werden, wodurch die Lastverteilung und der I/O-Durchsatz verbessert werden. Die GWDG plant den Einsatz einer Konfiguration mit active-active Verbindungen zu den Hosts.

Sprecher A

Backup und Archiv

Nach Ersatz von sechs LTO-3-Bandlaufwerken am Standort Klinikum durch LTO-4-Laufwerke konnte dort im Laufe des Jahres 2010 die Migration der Backup-Daten auf Medien von annähernd der doppelten Kapazität fortgesetzt werden. Dadurch konnte einer Erhöhung des Bedarfs an Stellplätzen im dortigen Bandroboter vorgebeugt werden. Ende Dezember 2010 betrug das auf Band gespeicherte Backup-Inventar 1.122 TByte am Standort Klinikum und am Standort GWDG 964 TByte. Jeder der beiden Bandroboter hält zusätzlich eine Kopie der Daten des Archivsystems, in dem ca. 300 TByte aufbewahrt werden.

Durch Einsatz einer neuen Softwareversion (EMC DiskXtender Version 2.11) konnte das seit Ende Oktober 2009 im Archiv bestehende Problem sporadisch nicht zugreifbarer Dateien endlich behoben werden. Leider führte der Einsatz der neuen Software zu Fehlern im Bereich der Kassettenverwaltung (der Kassettenwechsel bei Datenmigration von Platte auf Kassette funktionierte nicht einwandfrei), so dass ein reibungsloser Produktionsbetrieb zeitweise nicht möglich war. Zur Abmilderung der größten Speicherengpässe stellt der Software-Hersteller ein Massenspeichersystem EMC CX-4 mit einer Kapazität von 50 TByte leihweise zur Verfügung.

Sprecher B

Beschaffung eines NAS-Systems

Das im Frühjahr 2010 vom MPI für biophysikalische Chemie (MBPC), dem IT-Service für Studierende (studIT) und der GWDG gemeinschaftlich beschaffte NAS-System besteht aus zwei im HA-Verbund (HA = High Availability) betreibbaren NAS-Köpfen und verfügt in der Anfangskonfiguration über eine Speicherkapazität von über 250 TByte (netto). Es wird hauptsächlich als Windows- und UNIX-Fileserver für das MPI für biophysikalische Chemie und die studIT eingesetzt werden. Die GWDG betreibt das System und hat es um weitere 32 TByte für die Windows-Fileservices der GWDG erweitert.

Die Test- und Stabilitätsphase konnte erfolgreich beendet werden. Die ausstehenden Fehleruntersuchungen und -behebungen wurden durch die Herstellerfirma BlueArc im September/Oktober 2010 erfolgreich abgeschlossen.

Das System war ursprünglich über die Serverräume der GWDG und des MBPC verteilt. Die Fertigstellung des GWDG-Serverraumes in der Niedersächsischen Staats- und Universitätsbibliothek (SUB) erlaubte, die Redundanz, speziell der MBPC-Daten, durch die größere geographische Trennung zu erhöhen. Durch die Verwendung der flexiblen Administrationsmöglichkeiten ließ sich der Umbau des Systems derart vereinfachen, dass die Hardware nur anteilig umgebaut werden musste. Die Datenbestände wurden anschließend zwischen den Standorten verschoben. Der Umbau wurde Anfang Oktober abgeschlossen.

Aufgrund des Systemumzugs und vorhandener Datendurchsatzprobleme zwischen den Standorten GWDG und SUB konnte der Produktivbetrieb nicht wie anvisiert im September aufgenommen werden. Ursache für die schlechte Datenübertragung waren fehlerhafte LWL-Verbindungen.

Sprecher A

Ablösung der Windows-Filecluster

Mit Aufnahme des produktiven Betriebs des BlueArc-NAS-Filers ist die Ablösung der bestehenden Windows-Filecluster vorgesehen. Diese stellen die Freigaben der Homeverzeichnisse und der in diese integrierten Benutzer-Profile aller GWDG-Benutzerkonten sowie die Windows-Gruppenlaufwerke für die Universität zur Verfügung. Homeverzeichnisse und Profile der Benutzer werden getrennt, um ihren unterschiedlichen Performanceansprüchen zukünftig besser gerecht werden zu können.

Die aktuellen separaten Freigaben der Homeverzeichnisse und Profile auf Benutzerbasis werden zugunsten von institutsgebundenen Freigaben verschlankt. Durch die massive Reduzierung der Anzahl der Freigaben sollen der Verwaltungsaufwand minimiert und die technischen Ressourcen geschont werden. Die über die letzten Jahre historisch gewachsenen Verzeichnis-, Daten- und Freigabestrukturen werden zur Vereinfachung der Verwaltung, der Datenkonsolidierung und zur Vorbereitung zukünftigen Datenmanagements neu strukturiert. Diese Restrukturierung der Windows-Fileservices erfordert es, die Prozesse der Benutzerverwaltung und ihre technische Umsetzung anzupassen.

Sprecher B

Niedersachsen-Storage-Cloud

Das Datenvolumen, welches an den Hochschulen durch den allgegenwärtigen IT-Einsatz in Forschung, Lehre, Service und Verwaltung entsteht, wächst stetig an, muss verwaltet werden und erhöht die Anforderungen an die Speicherinfrastrukturen an jeder Hochschule. Gleichzeitig sind die einzelnen Hochschulen durch den Wegfall mehrerer Förderprogramme (HBFG, CIP, CAD/CAM, WAP, Netzprogramm und Zentralrechner-Ersatz) nur ungenügend für die Finanzierung des wachsenden Umfangs von Basisbestandteilen der IT-Infrastruktur ausgestattet. Die Leiterinnen und Leiter der Rechenzentren des Landes Niedersachsen haben deshalb im Rahmen eines landesweit angelegten Konzepts vereinbart, die Speicherinfrastrukturen zu konsolidieren und aufeinander abzustimmen. Mit Hilfe der neu entwickelten Grid- und Cloud-Technologien sollen möglichst viele Speicherbereiche der Hochschulen in eine landesweite Niedersachsen-Storage-Cloud überführt werden. Eine Storage-Cloud bringt Kosteneinsparung durch gemeinsame Beschaffung, durch Erfahrungsaustausch und Zusammenarbeit beim Betrieb und durch Arbeitsteilung bei der zentralen Bereitstellung spezieller Speicherdienste. Die landesweite Nutzung der gemeinsamen Speicherinfrastruktur erlaubt eine bessere Auslastung der vorhandenen Ressourcen, die schnelle Deckung von lokal auftretenden Bedarfsspitzen und den Einsatz hochverfügbarer zentraler Speicherdienste.

Die Finanzierung der Niedersachsen-Storage-Cloud wurde über Landesmittel nach § 143c GG angestrebt. Ein entsprechender Antrag wurde Ende 2009 unter Federführung der GWDG gestellt. Dabei handelt es sich um ein Speichersystem von insgesamt 1 PetaByte, das in unterschiedlich großen Teilsystemen auf 15 Niedersächsische Hochschulrechenzentren verteilt werden soll. Das Volumen des Antrags betrug ca. 1,5 Millionen Euro. Die Begutachtung des Antrags durch die DFG wurde am 9. Juni 2010 mit einer Empfehlung zur Beschaffung im beantragten Umfang abgeschlossen. Die GWDG hatte bereits in Absprache mit den Partnerinstitutionen die Ausschreibungsunterlagen vorbereitet, so dass die Beschaffung zeitnah erfolgen konnte.

Nach positivem Entscheid des Antrags und der Finanzierung aus Landesmitteln nach § 143c GG hat die GWDG in Absprache mit den beteiligten Hochschulen im Herbst 2010 eine europaweite Ausschreibung von 15 NAS-Systemen mit vorgeschaltetem Teilnahmewettbewerb durchgeführt. Aus den bis zum Ende der Angebotsfrist am 1. Oktober 2010 abgegebenen gültigen fünf Angeboten wurde das der beiden Firmen Isilon Systems und Concat als bestes ausgewählt. Das gesamte Speichersystem umfasst insgesamt fast 1 PetaByte, die sich auf unterschiedlich große Teilsysteme an 15 Niedersächsischen Hochschulrechenzentren verteilen. Das Volumen des Auftrags beträgt 1,5 Millionen Euro.

Sprecher A

Windows-(Active-Directory-)Services

Die Computer, Server, Drucker und Benutzer der Universität Göttingen und der Max-Planck-Institute bilden ein großes Netzwerk, das mit dem Verzeichnisdienst Active Directory (AD) von Microsoft als Struktur abgebildet und verwaltet wird. Das AD wird im Großen von der GWDG und im Kleinen von den Institutsadministratoren verwaltet. Das AD umfasst inzwischen rund 50 Domänen, mit rund 6.500 Arbeitsplatzrechnern und Servern, was ungefähr zwei Dritteln aller im GÖNET angesiedelten Systeme entspricht. Das wichtigste Merkmal der Active-Directory-Struktur ist das „Single Sign on“. Dieses umfasst die Möglichkeit, sich innerhalb der Struktur mit einer einzigen Benutzerkennung an jedem Klienten anmelden zu können und zentrale Ressourcen zu nutzen.

Auf Grund vielfältiger Leistungen innerhalb des Active Directory und der flexiblen Handhabung hinsichtlich der Administration innerhalb der Institute konnten in den letzten Monaten viele Interessenten für das Angebot gewonnen werden.

In den vergangenen Jahren wurde das Angebot weiter ausgebaut und Arbeitsprozesse für die Administratoren in den Instituten durch kontinuierliche Verbesserung zentraler Dienste (z. B. WSUS (Windows Server Update Service) und Sophos Anti-Virus) weiter vereinfacht. So konnte der Arbeitsaufwand für die Administration der Computer und die Schulung der Zuständigen in den Instituten weiter optimiert werden.

Auch im Bereich der Sicherheit konnten erhebliche Fortschritte erzielt werden. So ermöglicht eine zentrale Überwachung und Verwaltung der Arbeitsstationen einen rechtzeitigen Eingriff bei Auffälligkeiten.

Die GWDG bietet ihre Dienste für Windows-Systeme für alle Institute der beiden Gesellschafter an. Die allgemeinen Dienste, die für alle im GÖNET eingebundenen Systemen zur Verfügung stehen, werden wesentlich ergänzt durch die Möglichkeiten für Systeme, die in das Active Directory der GWDG integriert sind.

Sprecher B

Serversysteme für die Max-Planck-Gesellschaft

Bibliothekssystem Aleph

Seit 2001 betreibt die GWDG für Institutsbibliotheken der Max-Planck-Gesellschaft einen Server für das Bibliothekssystem Aleph500, eine Software für Katalogisierung, Erwerbung und Ausleihe von Büchern und Zeitschriften. Aleph500 bietet sowohl den Bibliothekaren ein Arbeitsinstrument für den gesamten bibliothekarischen Geschäftsgang, als auch den Wissenschaftlerinnen und Wissenschaftlern an den Instituten mit dem Online-Katalog (OPAC) ein weltweit zugängliches Instrument für die Recherche in den Beständen ihrer Institutsbibliothek.

Als zentrale Kataloge der Max-Planck-Gesellschaft stehen auf dem Göttinger Aleph-Server das Zeitschriftenverzeichnis und das Verzeichnis der e-Books zur Verfügung. Alle Bibliotheken der MPG können darüber hinaus auf dem Aleph-Server die Normdaten der Personennamendatei (PND), der Gemeinsamen Körperschaftsdatei (GKD) und der Schlagwortnormdatei (SWD) nutzen.

32 Bibliotheken, die insgesamt 38 Max-Planck-Institute versorgen, nutzen derzeit das Aleph-System. Ferner steht die Übernahme des „kubikat“, des Verbundkataloges des Kunstbibliotheken-Fachverbundes Florenz – München – Rom bevor. Im Kunstbibliotheken-Fachverbund haben sich zwei Max-Planck-Institute sowie das Zentralinstitut für Kunstgeschichte in München und das Deutsche Forum für Kunstgeschichte in Paris zusammengeschlossen. In der Aleph-Entwicklungsumgebung sind die Bibliotheken bereits eingerichtet, und die Daten sind migriert. Die produktive Datenmigration soll in den nächsten Monaten erfolgen. Durch die Integration der Kunstbibliotheken wächst der Aleph-Datenbestand auf über 3 Millionen Titelsätze an.

Da die Wartungsverträge für die Aleph-Hardware Ende 2010 ausliefen, hatte die GWDG bereits im Frühjahr 2010 ein Konzept für neue Aleph-Hardware erstellt. Die Server sind Ende September 2010 von der Max Planck Digital Library (MPDL) bestellt worden, und im Dezember 2010 wurde dann die Aleph-Installation auf die neue, leistungsfähigere Hardware migriert.

Die GWDG betreibt den Aleph-Server und unterstützt darüber hinaus die Kunden durch Konfiguration und Pflege des Setup für die verschiedenen Bibliotheken und Support. Sie stellt Kommunikationsmittel wie Mailinglisten und ein Aleph-Wiki zur Verfügung. Bei regelmäßigen Treffen mit den Bibliothekarinnen und Bibliothekaren und der Max Planck Digital Library werden Anforderungen für die Weiterentwicklung des Systems gesammelt und als Entwicklungswünsche über die Ex-Libris-Nutzerorganisation IGeLU an die Herstellerfirma gegeben. Eigene Vorhaben zur Weiterentwicklung der Aleph-Services in der MPG werden durch Arbeitsgruppen, zusammengesetzt aus MPDL, Bibliotheken und GWDG, realisiert.

Der Test der Open-Source-Software vufind als modernes bibliothekarisches Recherchetool für die Max-Planck-Gesellschaft ist abgeschlossen; da er nicht die gewünschten Ergebnisse erbracht hatte, wird diese Software nicht zum Einsatz kommen.

Sprecher A

Metalib- und SFX-Server der MPG

Die Max Planck Virtual Library (VLib) bietet mit einer Installation der ebenfalls von der Fa. Ex Libris angebotenen Software Metalib den Wissenschaftlerinnen und Wissenschaftlern der MPG die Möglichkeit, unter einer Suchoberfläche gleichzeitige Recherchen in mehreren dezentralen wissenschaftlichen Ressourcen durchzuführen. Dazu gehören die Bibliothekskataloge der Max-Planck-Institute, aber auch von der MPG lizenzierte Datenbanken, externe Bibliothekskataloge und eine Auswahl frei verfügbarer Datenbanken und Kataloge. Mit dem in die VLib-Oberfläche integrierten Max Planck Context Sensitive Linking (MPG-SFX) werden eine direkte Lokalisierung des Volltextes zu einem recherchierten Titel – soweit Zugriff darauf besteht – und ferner die Weiterbearbeitung des Suchergebnisses mit anderen verfügbaren Diensten angeboten.

Beide Server laufen in virtuellen Umgebungen: Metalib in einer Solaris-Zone auf der im Herbst 2010 neu angeschafften Hardware, auf der auch die Zonen für Aleph laufen, und SFX auf einem RedHAT-Linux-Server im VMware-Cluster der GWDG. Die SFX-Software wurde Ende 2010 auf die aktuelle Version 4 umgestellt.

Sprecher B

Serversysteme für die Universität Göttingen

Webserver www.uni-goettingen.de und Institutswebseiten im GCMS

Ende 2008 begann die Planung für die Übernahme der Betreuung des Webservers der Universität Göttingen durch die GWDG. Im August 2009 hat die GWDG dann die Betreuung des Webservers der Universität Göttingen übernommen. Mit diesem Wechsel wurde auch dieser Webserver bzw. das ihm zugrunde liegende Göttinger CMS-System (GCMS) durch die Entwickler am Institut für Wirtschaftswissenschaften von MySQL4 / PHP4 auf MySQL5 / PHP5 umgestellt. Dafür wurde auf einem virtuellen Server innerhalb der VMware-Umgebung der GWDG zunächst ein Entwicklungssystem eingerichtet und dann auch das produktive System auf eine virtuelle Maschine migriert. Nach erfolgreichem Abschluss aller Migrationsarbeiten und Tests erfolgte die produktive Übernahme des Webauftritts der Universität sowie derjenigen Institute, die das GCMS nutzen, am 25. August 2009.

Sprecher A

Webserver www.studentenwerk-goettingen.de

Im September 2010 hat die GWDG die Betreuung des Webservers des Studentenwerkes Göttingen übernommen. Dafür wurde ein virtueller Server innerhalb der VMware-Umgebung der GWDG eingerichtet. Die GWDG überwacht und wartet das zugrunde liegende Betriebssystem. Das Studentenwerk ist für den Inhalt des Webauftritts und dessen Sicherheit zuständig.

Sprecher B

Stud.IP

Stud.IP (Studienbegleitender Internetsupport von Präsenzlehre) ist eine internetbasierte Arbeitsumgebung zur Unterstützung von Lehrveranstaltungen an Bildungseinrichtungen (Lernplattform, Learning Management System), mit der über das Internet eine Kommunikation zwischen Lernenden und Lehrenden möglich ist. Stud.IP wird seit Anfang 2009 bei der GWDG in einer redundant ausgelegten hochperformanten physikalischen Umgebung gehostet. Die GWDG übernimmt hierbei Aufgaben zur Installation, Konfiguration, Administration und Wartung im Bereich des Betriebssystems und zugrunde liegender Applikationen von Stud.IP. Stud.IP wird von einer Vielzahl an Universitäten und Fachhochschulen eingesetzt.



Sprecher A

Projekte

Wissenschaftliche Projekte

EURExpress

Im großen europäischen Forschungsprojekt EURExpress (Förderung durch die EU im Rahmen des 6. Forschungsprogramms) wurden an verschiedenen Standorten in Europa große Mengen von Schnitten von Mausembryonen erzeugt. Die Aktivität von Tausenden von Genen wurden in diesen Schnitten durch molekularbiologische Methoden sichtbar gemacht. Initiiert durch Professor Eichele, waren daran u. a. das frühere MPI für experimentelle Endokrinologie in Hannover und das MPI für molekulare Genetik in Berlin beteiligt. Als Ergebnis entstanden mit Hilfe von automatisierten Mikroskopieverfahren große Mengen hochaufgelöster digitaler Bilddaten, die zur GWDG transferiert, dort weiterverarbeitet und gespeichert wurden. Derzeit werden nur noch vom MPI für biophysikalische Chemie in Göttingen Daten geliefert. Wichtigstes Ziel des Projekts EURExpress ist die Erstellung eines Internet-basierten Expressionsatlasses für das Genom der Maus, d. h. eine Kartierung der Aktivitäten der einzelnen Bestandteile des Erbguts. Neben diversen Programmieraufgaben ist es Aufgabe der GWDG innerhalb des Projekts, wie schon im Vorläuferprojekt „Genepaint“, die Server zu betreiben, die zum Transfer der anfallenden Bilddaten nach Göttingen und zur Darstellung und Realisierung von Recherchemöglichkeiten in den gewonnenen Bilddaten notwendig sind.

Zu Beginn der Projektphase wurden wöchentlich ca. 200 GByte Bilddaten geliefert, inzwischen hat sich das Datenvolumen auf wenige GByte pro Woche reduziert. Der Datenbestand umfasst derzeit ca. 35 TByte an TIF-Daten, hinzu kommen an konvertierten Bildern ca. 5 TByte im FlashPix-Format sowie ca. 105 GByte im JPEG-Format.

Die im Rahmen des Projekts für die GWDG zur Verfügung stehenden Mittel wurden im Berichtszeitraum aufgestockt und das Projekt planmäßig fortgeführt. Mittlerweile sind bis März 2011 ca. 427.000 Bilder nach Durchlauf des Workflows inkl. Metadaten per TSM / HSM mit einem Volumen von 35 TByte gespeichert.

Da die Wartungsverträge für Teile der eingesetzten Hardware ausliefen, wurde der Datenbank- und Webserver im März 2010 erfolgreich auf eine virtuelle Maschine im VMware-Cluster der GWDG migriert. Ebenfalls wurde der Zoomserver, der das virtuelle Mikroskop für die Website des Projekts beherbergt, in die VMware-Umgebung migriert.

Sprecher B

DP4lib

Das Projekt DP4lib ist die konsequente Weiterentwicklung von Kopal zu einem integrierten Dienst zur Langzeitarchivierung digitaler Daten. Dabei soll das System zu einer mandantenfähigen Lösung ausgebaut werden. Das Projekt wurde von der Deutschen Nationalbibliothek in Frankfurt und der SUB Göttingen bei der DFG beantragt und Anfang 2009 genehmigt. Wie beim Projekt Kopal wird die Software durch IBM geliefert, die GWDG übernimmt Planung und Betrieb der Speicher- und Serversysteme. Projektbeginn war Anfang 2010 mit einem Kickoff-Meeting .

Sprecher A

KoLaWiss

Im Rahmen der GO*-Arbeitsgruppe Langzeitarchivierung (LZA) wurde ein Projektantrag zur Erstellung einer Studie Kooperative Langzeitarchivierung für Wissenschaftsstandorte erstellt, der bei der DFG eingereicht und genehmigt wurde. Die Studie sollte u. a. Förderkriterien für den Aufbau von kooperativen Langzeitarchivierungs-Zentren erarbeiten. Das Projekt wurde am 1. Februar 2008 begonnen und sollte am 31. Januar 2009 beendet sein. Die Projektleitung lag bei der GWDG. Wegen kurzfristiger personeller Änderungen wurde eine Verlängerung der Laufzeit bis Ende April 2009 mit der DFG vereinbart und das Projekt dann am 30. April 2009 abgeschlossen sowie der Abschlussbericht der DFG zugestellt. Vor dem DFG-Unterausschuss für elektronische Bibliotheken wurden die Projektergebnisse präsentiert.

Sprecher B

MediGRID

Das Projekt MediGRID (Laufzeit 1. September 2005 bis 28. Februar 2009) war ein Verbundvorhaben im Rahmen der D-Grid eScience-Initiative des Bundesministeriums für Bildung und Forschung (BMBF). Ziel des Projekts war eine Grid-unterstützte Verbesserung der interdisziplinären, weitgehend standortunabhängigen Zusammenarbeit in der biomedizinischen Community. Für das Projektvorhaben wurde ein modularer Aufbau gewählt: In den vier methodischen Modulen Middleware, Ontologie-Werkzeuge, Ressourcenfusion und eScience wurde eine Grid-Infrastruktur erarbeitet. Für drei repräsentative Fachbereiche der biomedizinischen Forschung (Bildverarbeitung, Biomedizinische Informatik und Klinische Forschung) wurden exemplarische Anwendungen in diese Grid-Infrastruktur portiert.

Die GWDG war an MediGRID als Ressourcenprovider und im Modul Ressourcenfusion beteiligt. In diesem Modul wurde für die MediGRID-Community eine Infrastruktur zur Prozessierung und Speicherung von biomedizinischen Daten in einer Grid-Umgebung aufgebaut, die für laufende D-Grid Projekte weiter betrieben wird. Diese Infrastruktur ermöglichte es den ersten Anwendungsentwicklern und Nutzern der Community, ihre Anwendungsszenarien erfolgreich in das MediGRID zu migrieren. Wesentliche Herausforderung war es, die heterogenen Anforderungen auf die Funktionalitäten der verfügbaren Grid-Werkzeuge abzubilden.

Ein Schwerpunkt der Arbeiten im Modul Ressourcenfusion war die Konzeption und Implementierung von Diensten, um Nutzerdaten und Metadaten im MediGRID zu verwalten. Dazu wurden etablierte Werkzeuge wie der Storage Resource Broker (SRB) für die Verwaltung von Informationen auf Dateiebene und die OGSA-DAI-Middleware für den Zugriff auf Informationen in verteilten relationalen Datenbanksystemen bezüglich der Anforderungen in MediGRID evaluiert und angepasst.

Für die Ausführung von Anwendungen in MediGRID kommt der Grid Workflow Execution Service (GWES) zum Einsatz. Gemeinsam mit dem Modul Middleware befasste sich die GWDG mit der Analyse und Optimierung dieses Workflow-Systems. Dazu wurden die Leistungsparameter identifiziert, die als Entscheidungsgrundlage für das Job-Scheduling dienen können. Es wurde ein datenabhängiges Job-Co-Scheduling eingeführt, um aufwendige Datentransferoperationen zu vermeiden, und die Modellierung der Ressourcenauslastung zur Verkürzung von Wartezeiten optimiert. Mit diesen Erweiterungen konnte der Job-Durchsatz in MediGRID deutlich verbessert werden.

Sprecher A

Services@MediGRID

Das Projekt Services@MediGRID (ursprünglich vorgesehene Laufzeit 1. Januar 2008 bis 31. Dezember 2010, kostenneutrale Verlängerung bis 31. März 2011) ist eines der Nachfolgeprojekte von MediGRID innerhalb der D-Grid-Initiative des Bundesministeriums für Bildung und Forschung (BMBF). Services@MediGRID entwickelt auf Basis der MediGRID-Middleware wichtige Elemente für die Nachhaltigkeit der Grid-Infrastruktur. Dazu wird das MediGRID um eine vertikale Komponente erweitert, die durch alle Schichten hindurch Dienste gestaltet, die Voraussetzung für eine kommerziell orientierte Verwertung sind. Hintergrund ist eine sich verändernde Förderstruktur in biomedizinischen Forschungsprojekten dahingehend, dass für den einzelnen Antragsteller zunehmend weniger Infrastruktur gefördert, sondern vielmehr empfohlen wird, sich die Dienstleistung bei einem Serviceanbieter einzukaufen. Voraussetzung dafür ist ein leichter, niederschwelliger Zugang zu Servicedienstleistungen, wie sie beispielsweise in D-Grid angeboten werden. Darüber hinaus müssen die in Anspruch genommenen Dienste für Diensteanbieter und Dienstenutzer transparent zu- und abrechenbar sein. Deshalb spielen vertikale Dienste wie Accounting und Billing eine zentrale Rolle für die neue Förderstruktur zur Nutzung zentraler Dienste und auch für die Nachhaltigkeit der Diensteanbieter.

Die GWDG beteiligte sich bis 31. Dezember 2009 an Services@MediGRID weiter als Ressourcenprovider. Hauptsächlich war sie jedoch Integrationspartner und befasste sich mit dem Grid Coaching für potenzielle Anbieter und Kunden von Grid-Diensten. Für die Entwickler wurden dazu Workshops abgehalten, die sie befähigen, ihre Anwendungen in die Grid-Umgebung zu migrieren. Gleichzeitig wurde durch einen systematischen Review von Grid-Ressourcen, Grid-Services und Grid-Werkzeugen das Portfolio für zukünftige Kunden zusammengestellt. Die Kunden werden damit in die Lage versetzt, selbst ihre Grid-Anforderungen zu formulieren und entsprechende Servicepartner zu finden.

Sprecher B

OptiNum-Grid

Das Forschungsprojekt und Verbundvorhaben OptiNum-Grid – Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen wurde von der GWDG als Konsortialführer und Koordinator mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie für die 3. D-Grid-Förderrunde des BMBF initiiert. Die beiden Partner aus der Forschung sind zum einen die Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl für Informatik 3 – Rechnerarchitektur) und zum anderen die Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. in München (Fraunhofer-Institut für Integrierte Schaltungen IIS, Institutsteil Entwurfsautomatisierung EAS). Die drei Partner aus der Industrie sind die EQUIcon Software GmbH aus Jena, die ERAS Gesellschaft für Entwicklung und Realisation Adaptiver Systeme mbH aus Göttingen sowie die Zentrum Mikroelektronik Dresden AG.

Ziel des Projektes, das mit 1,5 Mio € über drei Jahre gefördert wird und am 1. Juni 2009 planmäßig begonnen wurde, ist es, Dienste und Geschäftsmodelle zu entwickeln, mit denen numerische Simulations- und Optimierungsverfahren über das Grid bereitgestellt und genutzt werden können. Für die industriellen Partner ermöglicht der Zugang zu Grid-Ressourcen die zunehmend erforderliche Nutzung von numerischer Simulation und Optimierung in ihren Entwicklungs- und Produktionsabläufen, ohne den Aufwand der Beschaffung und des Betriebs der dafür notwendigen Infrastruktur in eigener Regie betreiben zu müssen. In vielen Bereichen nämlich ist heutzutage wegen zunehmender technischer Komplexität und steigender Produktsicherheitsanforderungen die Entwicklung innovativer neuer Produkte ohne Computersimulationen nicht mehr möglich, aber die dafür benötigte Computerleistung übersteigt oftmals die Grenzen dessen, was insbesondere mittelständische Unternehmen ihren Ingenieuren bereitstellen können. Mit der Öffnung des Grids für das breite Feld von Simulations- und Optimierungsanwendungen in der Forschung können Synergieeffekte durch Lastausgleich und erhöhte Auslastung von öffentlich geförderten Rechenressourcen erzielt werden.

Sprecher A

DGSI

An einem weiteren Verbundprojekt der 3. D-Grid-Förderrunde, DGSI – D-Grid Scheduler Interoperability (Laufzeit: 1. Mai 2009 bis 30. April 2012), ist die GWDG als Partner mit sechs weiteren Forschungseinrichtungen und einem Unternehmen aus der Industrie beteiligt. In diesem Projekt werden Verfahren entwickelt, die die gemeinsame Nutzung der zur Verfügung stehenden Rechen- und Speicherressourcen über die Grenzen der heterogenen Umgebung der vielen D-Grid-Communities hinweg ermöglichen. Die meisten Communities bzw. Service Grids im Rahmen von D-Grid stehen der Anforderung gegenüber, vorhandene Arbeitslast in effizienter Weise auf die angeschlossenen Ressourcen zu verteilen. Diese unter dem Sammelbegriff Grid Scheduling gefasste Problematik ist bereits innerhalb einer Community sehr komplex, community-übergreifend ist sie noch viel schwieriger zu bewältigen. Zu diesem Zweck werden die vorhandenen Schedulingsysteme verschiedener Service Grids im Rahmen des Projekts an eine zu entwickelnde Interoperabilitätsschicht angebunden. Mittels Verhandlungen können die beteiligten Scheduler Aktivitäten und Ressourcen untereinander delegieren. Damit wird sichergestellt, dass die im D-Grid vorhandenen Rechen- und Speicherressourcen allen Communities nachhaltig zur Verfügung stehen können. Bei der Umsetzung wird konsequent auf anerkannte offene Standards gesetzt, um die Interoperabilität von D-Grid im internationalen Kontext zu stärken.

Sprecher B

Persistent Identifier (PID) und EPIC

Zielsetzungen

In allen Wissenschaftsdisziplinen werden immer mehr Daten erzeugt und gespeichert und es werden in zunehmendem Maße Relationen zwischen diesen Daten und anderen Ressourcen erzeugt, die für die Wissenschaft essentiell sind, wie z. B. Referenzen auf Daten in wissenschaftlichen Publikationen. Es wird immer deutlicher, dass jede wissenschaftliche Einrichtung eine Langzeit-Strategie für seine wissenschaftlichen Ressourcen entwickeln muss, um deren Zugänglichkeit langfristig abzusichern. Dabei spielen verschiedene Gründe eine Rolle, wie z. B. die Überprüfbarkeit wissenschaftlicher Resultate oder die Aufbewahrung nicht wiederholbarer Observationen.

In der Wissenschaft muss also zunehmend dafür gesorgt werden, dass a) die Ressourcen in geordneten Repositorien registriert werden, deren Inhalte nicht verändert werden sollten und mithin referenzierbar und zitierfähig sind, und b) die Referenzen selbst stabil sind, wissen dass digitale Repositorien lebende Organismen sind, die einer dauernden Migration auf verschiedenen Ebenen (Hardware/Software-Änderungen, Format-Änderungen etc.) unterworfen sind. Aufgrund dieser Änderungen eignen sich die gegenwärtig weithin verwendeten URLs nicht, da sie physikalische Pfade und semantische Inhalte umfassen, die nach wenigen Jahren schon nicht mehr aktuell sind.

Die Wissenschaft benötigt also für die Referenzierbarkeit ihrer Primär- und Sekundär-Daten andere Mechanismen, die Ressourcen eindeutig und zeitunabhängig benennen, ähnlich wie eine ISBN-Nummer die Inkarnation eines Buches darstellt und nicht auf eine physikalische Kopie eines Buches verweist. Allerdings benötigt man für die Auflösung eines eindeutigen und persistenten Identifiers (PID) einen abgesprochenen Mechanismus. Aufgrund der enormen Bedeutung der Auflösung von Referenzen in aktuelle URLs für alle möglichen Aktionen müssen alle diesbezüglichen Resolutions-Services mit einem hohen Grad an Robustheit, Zuverlässigkeit und Langfristigkeit arbeiten.

Sprecher A

Vorhaben und Ergebnisse

Der BAR (Beratender Ausschuss für Rechenanlagen) der MPG hatte Ende 2008 dem Antragsentwurf zur Einführung persistenter und eindeutiger Identifikatoren in der MPG stattgegeben, um für die Max-Planck-Gesellschaft mit dem Aufbau des Prototypen eines PID-Service zur Bereitstellung für Persistent Identifier (PID) beginnen zu können. Dieser Service sollte auf Basis des Handle-Systems entstehen. Betreiber dieses Service ist die GWDG.

Da bis dahin für die Einrichtung eines derartigen Service kein fertiges, qualitätsgesichertes, kommerzielles oder freies Produkt existierte, mussten die dafür notwendigen Softwarekomponenten in dem Projekt entwickelt werden. Mit Ende der ersten Phase des zeitlich befristeten Projektes stand ein bereits produktiv nutzbarer Prototyp für die Basisdienste eines PID-Service für die MPG bereit. Um für den bestehenden Service eine höhere Zuverlässigkeit und zusätzlich eine Verbreitung im europäischen Raum zu ermöglichen, gab es im Herbst 2009 einen internationalen Zusammenschluss der Institutionen GWDG, SARA (Amsterdam, Niederlande) und CSC (Helsinki, Finnland) in einem Memorandum of Understanding, in dem die Bereitschaft erklärt wurde, gemeinsam einen PID-Service-Dienst bereitzustellen und durch gegenseitige Redundanz-Strukturen hochverfügbar zu machen. Dieser Zusammenschluss heißt European Persistant Identifier Consortium (EPIC).

Sprecher B

Im Berichtszeitraum wurden eine Reihe von Maßnahmen zur Weiterentwicklung und Verbesserung dieses Dienstes durchgeführt
  • Es wurde ein lokaler Handle Server eingerichtet, der bislang primär für die Bearbeitung eines Identifikator-Prefix für die Max-Planck-Gesellschaft zuständig ist.
  • Aufbauend auf den Funktionen dieses Servers ist eine Service-Schnittstelle für die Max-Planck-Gesellschaft entwickelt worden, die unterschiedliche Arten des Zugriff der Institute der MPG auf die Erstellung und Manipulation von PIDs ermöglicht. Diese Services gewährleisten derzeit die Erzeugung und die Auflösung der Adresse eines Handles zum Beispiel als Web-Applikation oder Web-Service.
  • Darüber hinaus ist für ein sicheres Betriebskonzept nötig, Routinen zur Qualitätssicherung und Überwachung der Services und für geeignete Fallback-Strategien zu implementieren. Derzeit ist die Implementation als virtueller Server (Xen) realisiert. Ein tägliches Backup garantiert den Datenbestand. Die Überwachung geschieht mit den bei der GWDG üblichen Monitoring-Systemen.
  • Die Funktionen sind neben ihrer Web-Interface-Bereitstellung als Web-Service über das RESTProtokoll implementiert worden.
  • Es wurde eine umfangreiche Dokumentation der Schnittstellen und der Funktionen erstellt.
  • Es wurde für das EPIC eine Domäne beantragt, und unter dieser Adresse[12] tritt dieser ursprünglich für die MPG entwickelte Dienst mittlerweile im europäischen Rahmen auf.
  • EPIC hat unter der Adresse[13] den ursprünglich für die MPG entwickelten Dienst mittlerweile im europäischen Rahmen verfügbar gemacht.
  • Für den sogenannten Resolver - das ist der Dienst, der zu einem ausgegebenen PID die zugehörige URL bzw. die zugehörigen im PID gespeicherten Informationen ausgibt - sind inzwischen in Helsinki und Amsterdam Slave-Server eingerichtet. Diese Server halten ihre lokale Datenbank mit den Datenbankinhalten des PID-Service in Göttingen synchron. Somit können die Anfragen zur Resolution von PIDs genau wie die der Server in Göttingen beantwortet werden.
  • Es gibt mittlerweile die folgenden Nutzer des Systems:
  • die MPG durch die Max Planck Digital Library (MPDL)
  • MPI für Psycholinguistik
  • MPI zur Erforschung multireligiöser und multiethnischer Gesellschaften
  • das Institut für Deutsche Sprache
  • die Berlin-Brandenburg Academy of Sciences
  • die Niedersächsische Staats- und Universitätsbibliothek in Göttingen (SUB)
  • Im europäischen Umfeld gibt es verschiedene weitere Nutzer aus dem Clarin-Projekt.
  • Der durch die GWDG bereitgestellte Service ist im Zusammenhang mit der derzeitigen Entwicklung eines Konzeptes für die Forschungsdaten-Archivierung sehr positiv aufgenommen worden. Dieser Dienst kann dort ein wichtiger Orientierungspunkt für die technische und organisatorische Realisierung werden.
  • Am 19./20. April 2010 fand der erste EPIC User Workshop bei der GWDG statt, bei dem erste Erfahrungen mit dem Service ausgetauscht und notwendige zukünftige Entwicklungen geplant wurden. Ein wesentliches weiteres Ziel dieses Workshops war es, interne Strukturen für EPIC aufzubauen, die dem Konsortium die Legitimation und den Auftrag für seine Tätigkeit geben. Ein erstes Treffen einer User Group fand statt, die Einrichtung eines Scientific Boards und/oder eines Executive Boards wurde diskutiert.
  • Es gibt mittlerweile eine SSL-Unterstützung der API.
  • Es werden im EPIC-Konsortium mittlerweile neben dem MPG-Prefix 11858 verschiedene andere Prefixes bereitgestellt.
  • Es gibt nun eine neue Spezifikation für eine gemeinsame API, die die verschiedenen unter EPIC betriebenen APIs vereinheitlichen soll. Mit der Realisierung dieser API soll in den nächsten Monaten begonnen werden.
  • Durch ein Pattern-Matching mit Rewrite-Regeln bei der PID-Auflösung im Handle-System 7.0 ist es nun möglich, sogenannte Fragments, also Teilbereiche der durch den PID adressierten Objekte, anzusteuern.
  • Im Herbst 2010 wurde mit der Fertigung eines Flyers begonnen, der im Oktober 2010 fertig gestellt wurde und seitdem auf etlichen einschlägigen Konferenzen verteilt wurde.
  • Im September 2010 wurde ein Vertrag zwischen CNRI und der GWDG geschlossen, der die Einrichtung eines Global Handle Registry (GHR) Mirror Servers und eines http-Proxies vorsieht, um auf diese Weise eine größere Unabhängigkeit Europas bei der PID-Auflösung zu bekommen.
  • Seit Anfang Januar 2011 betreibt die GWDG einen solchen Server, der damit, außer einem weiteren Server in China, der einzige außerhalb der USA betriebene derartige Server ist. Die Einrichtung eines weiteren Servers in Australien ist derzeit in Planung.
  • Durch die Mitarbeit der GWDG in den Projekten Dariah-DE und Clarin-D stehen ab dem April 2011 Mittel für die Weiterentwicklung der API und der Präsentation von EPIC zur Verfügung.
  • Am 12./13. April 2011 fand der zweite EPIC User Workshop in Amsterdam statt. Auch hier ging es wieder darum, Erfahrungen im Umgang mit dem Service auszutauschen und notwendige zukünftige Entwicklungen zu planen. Ein wesentlicher Schwerpunkt des Treffens war dabei die neue API-Spezifikation und das Verhältnis der PID-Systeme Handle und URN.

Sprecher A
Der Artikel Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen wurde von Michael, mit dem Benutzernamen MSh
Sprecher B
und von (Sprecher B-Name), mit dem Benutzernamen Lucioa am (Datum) gesprochen. Eine unverbindliche Zusammenfassung der Lizenz „Creative Commons Attribution-ShareAlike 3.0 Unported“ kann unter creativecommons.org/licenses/by-sa/3.0/deed.de nachgelesen werden, ein Link auf den vollständigen Text der Lizenz findet sich dort.
Sprecher A
Der Text der GNU-Lizenz für freie Dokumentation kann unter www.gnu.org/copyleft/fdl.html nachgelesen werden. Der Artikel findet sich unter de.wikipedia.org/wiki/Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen. Eine Liste der Autoren und die Versionsgeschichte dieses Artikels können über den dortigen Link „Versionsgeschichte“ abgerufen werden.

Folgendes nicht mehr lesen

Weblinks

  • Website der GWDG
  • Wiki der GWDG
  • Max-Planck-Gesellschaft (Hrsg.): GWDG - 25 Jahre Datenverarbeitung für die Wissenschaft, (Reihe: Berichte und Mitteilungen der Max-Planck-Gesellschaft, Heft 1995/3), ISSN 0341-7778
  • GWDG-Bericht, Gesellschaft für Wissenschaftliche Datenverarbeitung mgH Göttingen. - Göttingen : GWDG Nr. 1.1972 -, ISSN 0176-2516[14]
  • GWDG-Nachrichten, Informationen für die Benutzer des Rechenzentrums / Gesellschaft für Wissenschaftliche Datenverarbeitung mbH. - Göttingen : GWDG 1978 -, ISSN 0940-4686[15]

Einzelnachweise

  1. GWDG: Forschungsprojekt DP4lib, DP4lib
  2. GWDG: Forschungsprojekt D-Grid Scheduler Interoperability, D-Grid Scheduler Interoperability
  3. GWDG: Forschungsprojekt Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen im Grid, OptiNum-Grid
  4. GWDG: Forschungsprojekt EURExpress, EURExpress
  5. GWDG: Forschungsprojekt Services@MediGRID, Services@MediGRID
  6. GWDG: abgeschlossene Forschungsprojekte, Abgeschlossene Projekte
  7. GWDG: Forschungsprojekte, Forschungsprojekte
  8. GWDG: GWDG Nachrichten, GWDG-Nachrichten
  9. GWDG: Presseinformation Nr. 4/2010 vom 18. Oktober 2010, Presseinformation (PDF; 157 kB)
  10. GWDG: Webseite 40-Jahr-Feier, 40-jahr-Feier
  11. GWDG: Presseinformation Nr. 03/2011 vom 7. Oktober 2011, Presseinformation (PDF; 71 kB)
  12. GWDG: Wissenschaftliches Projekt PID, Verweis auf URL PID-Konsortium
  13. GWDG: wissenschaftliches Projekt, Verweis auf URL PID-Konsortium
  14. GWDG: GWDG-Berichte, GWDG-Berichte
  15. GWDG: GWDG-Nachrichten, GWDG-Nachrichten

Koordinaten: 51° 33′ 47″ N, 9° 58′ 15″ O

[[Kategorie:Rechenzentrum]] [[Kategorie:Forschungseinrichtung (Informatik)]] [[Kategorie:Unternehmen (Göttingen)]] [[Kategorie:Bildung und Forschung in Göttingen]] [[Kategorie:Max-Planck-Gesellschaft]]