Südhessen

Hochleistungsrechner in Darmstadt und Frankfurt

Die Technische Universität Darmstadt arbeitet mit dem Lichtenberg-Hochleistungsrechner, der in mehreren Ausbaustufen in den Jahren 2013 bis 2015 erweitert wird. Das Center for Scientific Computing Frankfurt betreibt in Zusammenarbeit mit dem Hochschulrechenzentrum der Goethe-Universität mehrere Hochleistungsrechner den GPU-Cluster Scout und den CPU-basierte Linux-Cluster FUCHS-CSC sowie den LOEWE-CSC.

lichtenberg-rechner_tu_darmstadt.jpg

Der Lichtenberg-Hochleistungsrechner an der TU Darmstadt.

Technische Universität Darmstadt

Die Technische Universität (TU) Darmstadt betreibt den Lichtenberg-Hochleistungsrechner, der in mehreren Ausbaustufen in den Jahren 2013 bis 2015 erweitert wird. Bund und Land tragen gemeinsam die Investitionskosten in Höhe von 15 Millionen Euro. Darüber hinaus wurden im Rahmen des hessischen Hochschulbauprogramms HEUREKA weitere sieben Millionen Euro in den Neubau eines energieeffizienten Technikgebäudes investiert. 

Der Lichtenberg-Hochleistungsrechner der TU Darmstadt ersetzt den alten, im Jahr 2002 installierten Rechner, dessen Leistung er bereits mit der ersten Ausbaustufe um das 30-fache übersteigt. Zudem verfügt der von der Firma IBM hergestellte Rechner über eine energiesparende und vielseitig nutzbare Architektur: Einerseits enthält er Rechenknoten für Anwendungen, die eine hohe Rechenleistung benötigen (MPI-Sektion). Andererseits stehen Rechenknoten für Aufgaben zur Verfügung, die viel Hauptspeicher benötigen und schnell auf diesen zugreifen müssen (MEM-Sektion). Zudem gibt es Rechenknoten für Anwendungen, die von speziellen Rechenbeschleunigern profitieren (ACC-Sektion).

Der Lichtenberg-Hochleistungsrechner verfügt bereits in der ersten Ausbaustufe über rund 780 Rechenknoten, welche über 250 TFlops (peak) durch Prozessoren und über 150 TFlops (peak) durch Beschleunigerkarten realisieren:
 

MPI-Sektion

706 Knoten mit dual-socket Intel Sandy Bridge Prozessoren mit je acht Kernen, die mit 2,6 Gigahertz getaktet sind und, bis auf zehn Prozent der Prozessoren mit 64 Gigabyte, pro Knoten über 32 Gigabyte Hauptspeicher verfügen.

MEM-Sektion

Vier Knoten mit je acht Intel Westmere Prozessoren mit je acht Kernen, getaktet mit 2,66 Gigahertz und pro Knoten ein Terrabyte Hauptspeicher bieten.

ACC-Sektion

68 Knoten, welche neben zwei Intel Sandy Bridge Prozessoren in 44 Knoten je zwei NVIDIA Kepler Beschleunigerkarten und in 24 Knoten je zwei Intel Xeon Phi Beschleuniger beinhalten.
 

Diese Rechner sind über ein FDR-10 Infiniband-Netzwerk gekoppelt und können auf ein Scratch Dateisystem von 768 Terrabyte mit einer Bandbreite bis zu 20 Gigabyte pro Sekunde zugreifen, sowie auf ein Home Dateisystem mit einer Kapazität von 500 Terrabyte und einer Bandbreite von fünf Gigabyte pro Sekunde. In einer zweiten Ausbaustufe Ende 2014 wird das Scratch-Dateisystem verdoppelt und die Rechenleistung des Gesamtsystems voraussichtlich verdreifacht.

Die verschiedenen Rechnersysteme unterstützen nicht nur die effiziente Ausführung der Programme auf der für sie passenden Architektur. Sie unterstützen auch die Entwicklung neuer Programme für zukünftige Parallelrechner. Denn ein Entwickler kann hier das auf seine Algorithmen zugeschnittene Programmiermodell auf der passenden Architektur nutzen und dadurch seine Produktivität in der Softwareentwicklung optimieren. Dies ist wichtig, denn die Lebensdauer eines Programms umfasst meist mehrere Rechnergenerationen, insbesondere bei komplexen Ingenieuranwendungen.

Der Lichtenberg-Hochleistungsrechner erlaubt eine signifikante Erweiterung der Möglichkeiten für die Untersuchung hochkomplexer Fragestellungen, die im Rahmen der Exzellenzprojekte der TU und anderer interdisziplinärer Verbundvorhaben bearbeitet werden. Die wissenschaftlichen Erkenntnisse werden in unterschiedlichen Anwendungsbereichen die Entwicklung von technischen Systemen (zum Beispiel Automobile, Flugtriebwerke, Kommunikations-netzwerke, Energieversorgungsnetze) entscheidend beeinflussen. Der Lichtenberg-Rechner kann von kooperierenden Forschern an allen hessischen Universitäten und Hochschulen sowie von überregionalen fachlichen Kooperationspartnern genutzt werden.

Cluster des Instituts für Theorie Elektromagnetische Felder

Im Rahmen eines Großgeräteantrags nach Paragraph 91b des Grundgesetzes wurde für neue Forschungsprojekte eine Bundesmittelförderung für einen weiteren, im Institut für Theorie Elektromagnetischer Felder (TEMF) betriebenen Cluster bei der Deutschen Forschungsgemeinschaft eingeworben. Das Institut arbeitet bereits seit mehreren Jahren erfolgreich an der Entwicklung von parallelisierten Simulationsprogrammen für elektromagnetische Felder, die auf Cluster-Computern mit verteiltem Speicher und einer schnellen Vernetzung laufen. Für die Realisierung von Forschungsprojekten wurde daher ein weiterer Cluster beschafft. Dieser verfügt über 172 CPU-Knoten mit 2.064 Rechenkernen und einer Gesamtrechenleistung von 21,89 TFlops. Ergänzt wird dieses System durch acht GPU-Knoten, die jeweils mit zwei Nvidia-Grafikkarten ausgerüstet sind. Das System ist mit einem latenzarmen QDR-Infiniband-Netzwerk ausgerüstet und verfügt insgesamt über einen Arbeitsspeicher von gut vier Terrabyte.

loewe-csc-2010-11-19-7_k.jpg

Das Hochleistungsrechnersystem LOEWE-CSC.

Goethe-Universität Frankfurt am Main

Das Center for Scientific Computing (CSC) betreibt in Zusammenarbeit mit dem Hochschulrechenzentrum (HRZ) der Goethe-Universität mehrere Hochleistungsrechner (HLR), die in ihrer Leistungsklasse gestaffelt sind. Zur Grundversorgung am Standort Frankfurt zählen der  GPU-Cluster Scout und der CPU-basierte Linux-Cluster FUCHS-CSC. Der LOEWE-CSC steht Forschungsgruppen aus allen Hochschulen des Landes auf Antrag zur Verfügung.

HLR-Grundversorgung

Scout

Der GPU-Cluster Scout enthält neun Recheneinheiten, aufgebaut aus je zwei CPU- und drei GPU- Knoten. Die CPU-Systeme bestehen aus zwei QuadCore Xeon CPUs mit 16 Gigabyte Hauptspeicher. Die GPU-Knoten sind Tesla S1070 Systeme von Nvidia. Jeder GPU-Knoten leistet vier TFlop/s single precision (sp), bzw 345 GFlop/s double precision (dp), so dass das Gesamtsystem eine Spitzenleistung von 108 TFlop/s sp, bzw 9.3 TFlop/s dp erreicht. Ziel des Scout ist es, interessierten Arbeitsgruppen Erfahrungen im Einsatz von GPU-Systemen zu ermöglichen.

FUCHS-CSC

Seit April 2010 ist der Frankfurter Linux-Cluster FUCHS-CSC in Betrieb. Er wurde aus Mitteln der Deutschen Forschungsgesellschaft (DFG) und des Hessischen Ministeriums für Wissenschaft und Kunst finanziert. Das System be­steht aus 4920 AMD-Istanbul-Kernen mit einer Spitzen-Rechenleistung von 43 TFlop/s, 14 TB Hauptspeicher und 537 TB Massenspeicher. Die Rechenknoten, die bis zu 24 CPU-Kerne und 128 GB Hauptspeicher bieten, sind mit InfiniBand (QDR)  vernetzt. Der Rechner wird von über 100 Arbeits­gruppen der hessischen Hoch­schulen aus der Physik, der Biochemie, der Chemie, der Pharmazie, den Geowissen­schaften, der Biologie und dem Frankfurt Institute for Advanced Studies genutzt.

LOEWE-CSC

LOEWE-CSC ist ein leistungsfähiges HLR-System (299 TFlop/s, Rang 22 in TOP500 Juni 2011), das mehrfach für sein innovatives GreenIT-Konzept ausgezeichnet wurde. Das System umfasst 832 Rechen­knoten mit 20.928 AMD-Magny-Cours-Kernen sowie 778 GPU, 56TB Hauptspeicher und über 2.5PB Festplatten­speicher. Die Rechenknoten sind über InfiniBand (QDR) vernetzt. Der Anteil der Kühlung am Stromverbrauch des Rechners beträgt unter maximaler Last nur sieben Prozent (PUE=1.07). Die Architektur des LOEWE-CSC ist dem sehr heterogenen Anforderungsprofil unterschiedlicher Forschungsprojekte angepasst.  Am LOEWE-CSC arbeiten über 250 Wissenschaftler hessenweit aus den Bereichen Physik der elementaren und komplexen Materie, Quantenchemie, Lebenswissenschaften und Klimaforschung.

Schließen