In Zukunft nur noch parallel

Supercomputer auf dem Weg zum Teraflops-Rechner

Eine verwirrende Vielfalt technischer Konzepte behindert noch den Markt für Höchstleistungsrechner. Aber eines ist bereits sicher: Massiv-parallele Systeme machen bald den traditionellen Supercomputern den Garaus. Deren paar CPUs haben kaum eine Chance gegen den Ansturm Tausender von Prozessoren.

Vielleicht hätte Seymour Cray aufhören sollen, als es am schönsten war. Alle Welt verehrte ihn, der in den siebziger Jahren den angesehenen EDV-Konzern Control Data verlassen hatte, um auf eigene Faust den schnellsten Computer der Welt zu bauen, als Genie. Er war das Aushängeschild der amerikanischen High-Tech-Industrie. Als die cleveren jungen Burschen aus dem Silicon Valley mit ihren PCs immer öfter Schlagzeilen machten, war Cray längst eine Institution. Der Rechnerkonstrukteur hatte seinen Namen zum Markenartikel für mathematische Höchstleistung gemacht: Wenn die Cray-1 eine Rechenaufgabe nicht lösen konnte, dann schaffte das kein Computer. Für diese Hardwarekategorie gab es deshalb auch nur einen angemessenen Namen: „Supercomputer“.

Heute steht Seymour Cray mit dem Rücken zur Wand. Weil er seine technischen Visionen gegen den Geschäftsführer seiner Firma Cray Research Inc., John Rollwagen, nicht durchsetzen konnte, verließ er grollend das Untemehmen und gründete die Cray Computer Corporation. Vier Jahre lang mühte sich der Erfinder des Supercomputers, sein ehrgeiziges Projekt „Cray-3“ fertigzustellen, dann kam kurz vor Weihnachten 1991 das endgültige Aus: Sein einziger Kunde, die Fusionsenergie-Abteilung des kalifornischen Lawrence Livermore National Laboratory, stornierte den 30-Millionen-Dollar-Auftrag und kauft demnächst bei Rollwagen.

Am Schicksal des armen Seymour Cray zeigt sich exemplarisch, vor welcher dramatischen Trendwende die informationstechnische Industrie steht. „Die klassischen Supercomputer nähern sich ihrer technologischen Sättigungsgrenze“, bestätigt Jürgen Middel, Leiter des Bereichs Technisches Rechnen der IBM Deutschland GmbH in Stuttgart, „die Zykluszeit liegt bei den neuesten Maschinen bei zweieinhalb Nanosekunden, viel weiter runter geht’s wegen der Signallaufzeit nicht.“ Die superschnellen Vektorrechner à la Cray, so scheint es, rasen mit Vollgas in die Sackgasse.

Im Jahr 1975, als das Urmodell Cray-1 vorgestellt wurde, war noch nicht absehbar, wohin die Entwicklung führen würde. Gleichzeitig mit dem ehemaligen Control-Data-Chefkonstrukteur aus Minneapolis hatte ein Wissenschaftlerteam der Universität von Illinois eine gänzlich neue Architektur für Höchstleistungscomputer entworfen. Die Forscher waren ihrer Zeit weit voraus: Während Cray dem bewährten Modell der sequentiellen Bearbeitung treu blieb (viele kleine Rechenschritte nacheinander auf einem einzigen Prozessor), sollten in ihrem revolutionären Prototyp Illiac IV 64 Rechenwerke simultan kleine Teilaufgaben lösen. Doch die Cray-Maschine entsprach mehr dem Zeitgeist. Zum technischen Rekord (schnellste CPU der Welt) kam das unkonventionelle Design: Der Computer war rund, um die Kabelwege zwischen den Bauteilen möglichst kurz zu halten. Es kam, wie es kommen mußte – Cray verkaufte bis 1984 weltweit 65 Stück seines Erstlings, der komplexere und daher weniger ausgereifte IIliac ging nie in Serie.

Heute ist sich die Wissenschaft einig, daß der Prototyp es wohl wert gewesen wäre, weiterentwickelt zu werden. Denn rund 90 Prozent aller praktischen Aufgaben, schätzt der Informatiker Geoffrey Fox von der Universität Syracuse im US-Staat New York, wären mit Parallelrechnern im Prinzip lösbar. Die überwiegend sequentiell arbeitenden Vektorrechner hingegen – wie sie heute außer Cray Research insbesondere die japanischen Konzerne Fujitsu (in Deutschland über Siemens-Nixdorf) und NEC anbieten – sind nur für bestimmte arithmetische Berechnungen ideal.

„Vektorrechner brauchen klare Strukturen“, beschreibt Peter Wüsten, Europachef des amerikanischen Computerherstellers nCube, das Problem des Crayschen Ansatzes, „doch in der Natur überwiegen amorphe (unregelmäßige, d. Red.) Strukturen.“ Also machten sich die Software-Ingenieure daran, mühselig die einzelnen Aufgabenpakete zu „vektorisieren“, das heißt: in eine für den Vektorrechner verdauliche Form zu bringen – Cray hatte ja nur die nackte Hardware entwickelt. Es dauerte Jahre, bis es Software (Compiler) gab, die diesen Vorgang automatisch erledigte. Dabei jedoch, behauptet Horst Gietl, Leiter Technik der nCube Deutschland GmbH, hätten die Supercomputer-Programmierer etwas Widersinniges getan: „Man hat viele Aufgaben mühsam entparallelisiert, um sie überhaupt vektorisieren zu können.“

Tatsächlich ist die Supercomputer-Euphorie der achtziger Jahre einer pragmatischeren Einstellung gewichen. Viele Industriefirmen entschieden sich in den vergangenen Jahren gegen einen solchen Spezialrechner und bestellten lieber eine „vector facility“, für ihren IBM-Großrechner. Laut IBM-Spezialist Middel hat sein Haus davon weltweit bereits 500 Exemplare verkauft. Damit hätte sich Big Blue international etwa die Hälfte des Marktes gesichert.

In vielen Hochschulrechenzentren laufen auf dem einst mit großen Plänen angeschafften „Number-Cruncher“ (Zahlenmahler) auch Programme, die gar keinen Vektorrechner erfordern würden. Nur geht es mit der Cray einfach schneller als auf dem ständig überlasteten Mainframe, der eigentlich für die Standardanwendungen vorgesehen wäre. Mitunter hat der Einsatz sogar mit dem ursprünglichen Sinn eines solchen Geräts überhaupt nichts mehr zu tun – so steuert in Stuttgart eine zweckentfremdete Y-MP als Fileserver das Datennetz der Universität. Selbst Renommier-Rechenzentren wie das am Lawrence Livermore National Laboratory fahren nicht dauernd mit Höchstgeschwindigkeit – die durchschnittliche Auslastung einer Top-Maschine liegt dort angeblich bei mageren 15 Prozent. Daß die Zahlenfresser bei den Benutzern an Beliebtheit eingebüßt haben, liegt freilich auch an der Erkenntnis, daß viele der wirklich spannenden wissenschaftlichen Fragestellungen mit einem Gerät dieser Leistungsklasse nicht zu lösen sind. Liegt die Schallmauer der Vektormaschinen zwischen 20 und 25 Milliarden Gleitkomma-Berechnungen pro Sekunde (Gigaflops), ist jetzt die Rede von der mindestens fünfzigfachen Stärke: Der Teraflops-Computer ist angesagt. Ironischerweise kommen die lautesten Rufe nach leistungsfähigeren Computern ausgerechnet aus jenen Fachgebieten, die bisher als Domäne der großen Vektorrechner galten – beispielsweise Simulationen im Automobil- und Flugzeugbau, Wettervorhersage oder Prospektion von Bodenschätzen.

Die aktuelle Zauberformel heißt „massiv-paralleles Rechnen“, also im Grunde nichts anderes als das Illiac-Konzept. Mit dem einen Unterschied, daß heute die Mikroelektronik eine weitaus bessere Grundlage dafür bietet als in den siebziger Jahren. Denn seit der Einführung der RISC-Chips (Reduced Instruction Set Computer, Rechner mit kleinem Befehlssatz) gibt es äußerst leistungsfähige Hardwarekomponenten zu erschwinglichen Preisen. Jetzt sei die Zeit reif, meint der Aachener Unternehmer Falk-Dieter Kübler, Chef der Parallelrechner-Firma Parsytec, für „Leistung jenseits des Supercomputers“.

Diese Einschätzung teilt auch Professor Hans Werner Meuer, Direktor des Rechenzentrums der Universität Mannheim und Deutschlands profundester Kenner des Surercomputer-Marktes: „Der Bedarf an Teraflops-Systemen ist da.“ Und zwar nicht nur in der Grundlagenforschung, sondern auch in den Ingenieurwissenschaften: Wenn Berechnungen, die heute noch Wochen dauern, in Stunden erledigt werden können, läßt sich nicht nur die Entwicklungszeit neuer Produkte erheblich verkürzen, es können auch viel mehr Parameter durchgetestet und optimiert werden.

Mit massiven Subventionen unterstützt die US-Regierung den Ausbau der noch jungen Parallelcomputer-Technik, mit deren Hilfe die „Grand Challenges“ bewältigt werden sollen: große Herausforderungen für die Wissenschaft wie die Entschlüsselung der menschlichen Erbinformation im Rahmen des Human Genome Project oder die Rekonstruktion und Prognose der atmosphärischen Vorgänge, die zum Abbau der Ozonschicht führen. Nicht weniger als 638 Millionen Dollar stellen staatliche Einrichtungen – von der Militärforschungsagentur Darpa (232 Millionen) über die National Science Foundation (213 Millionen) und das Energieministerium (93 Millionen) bis zur Raumfahrtbehörde Nasa (72 Millionen) – 1992 für das Förderprogramm „High Performance Computing and Communications“ bereit. Das entspricht einer Steigerung von mehr als 30 Prozent gegenüber dem Vorjahresbudget.

Als Hauptnutznießer dieses großangelegten Forschungs- und Entwicklungsvorhabens gelten die Intel Corporation, besser bekannt als Quasi-Monopolist bei Prozessor-Chips für Personal Computer nach dem IBM-Standard, und die Thinking Machines Corporation (TMC) aus Cambridge, Massachusetts, ein Unternehmen, zu dessen Gründern Marvin Minsky gehört, der bekannteste und provokanteste Erforscher der künstlichen Intelligenz. Durch den Einsatz von billigen Großserien-Chips ist die Eintrittskarte in den Club der Parallelen auch für innovative Kleinstfirmen erschwinglich geworden, die früher nie eine Chance bekommen hätten. Daher ist dem Spitzenduo bereits eine ganze Schar von Konkurrenten auf den Fersen.

Als aggressivster Verfolger kristallisiert sich momentan die nCube Corp. aus Beaverton bei Portland im US-Bundesstaat Oregon heraus. Hinter dem kleinen, aber feinen Unternehmen steht als treibende Kraft der Gründer und Chef des bei Datenbanken mit tonangebenden Softwarehauses Orade, Larry Ellison. Im Mittelfeld behauptet sich ohne viel Propagandarummel die Firma Active Memory Technology. Die Wavetracer Inc. aus Acton, Massachusetts, propagiert „Supercomputer-Leistung neben dem Schreibtisch“ mit 4000 1-Bit-Prozessoren für 175 000 Mark. Und in Seattle hat sich mit der Tera Corp. Burton Smith zurückgemeldet, ein Computerkonstrukteur, der bereits vor zehn Jahren mit seinem parallelen Prototyp Denelcor HEP Aufsehen erregt hatte.

Auch die großen Hardwarekonzerne haben erkannt, daß sie an dieser neuen Technologie nicht vorbeikommen werden. Als erster aus der Reihe der Großen hat der vom Telefonkonzern AT& T übernommene Computerhersteller NCR einen massiv-parallelen Rechner angekündigt. Digital Equipment (DEC) setzt auf Geräte der kalifornischen MasPar Computer Corp., deren Gründer Jeff Kalb aus dem Hause DEC kommt. Hewlett-Packard beteiligte sich an dem Vektorrechner-Spezialisten Convex und stellt seine RISC-Prozessoren als Bausteine für einen gemeinsamen Parallelcomputer zur Verfügung. IBM kooperiert mit Thinking Machines und arbeitet darüber hinaus im Forschungszentrum Kingston an einem eigenen Ansatz. Sogar Cray Research will sich dem Trend nicht mehr verschließen und entwickelt einen massiven Parallelprozessor auf Basis des neuen Alpha-Prozessors von DEC.

Diese Fülle allein an amerikanischen Anbietern hat allerdings bisher verhindert, daß sich ein Standard für die Parallelverarbeitung herausbildete. Jedes Unternehmen verfolgt einen eigenen technischen Ansatz und verwendet einen anderen Chip-Typ: Thinking Machines vertraut auf den „Sparc“ von Sun Microsystems, nCube lässt einen selbstentwickelten Mikroprozessor bei Hewlett-Packord fertigen, NCR nimmt konventionelle PC-Chips, für Intel und IBM wiederum kommen nur die jeweils neuesten selbstgemachten RISC-Halbleiter in Frage. Die Rivalen sind sich nicht einmal in wichtigen Grundsatzfragen einig, etwa ob dir SIMD-Technik reicht oder ob MIMD vorzuziehen ist. Im ersten Fell marschieren alle Prozessormodule (Fachjargon: Knoten) stur im Gleichschritt, im zweiten erhält jeder seine individuellen Befehle. Obwohl die MIMD-Maschinen schwerer zu programmieren sind, scheinen sie sich durchzusetzen.

Auf die Softwerker kommt in jedem Fall ein gewaltiges Stück Arbeit zu. „Alle Algorithmen der numerischen Mathematik sind in den letzten 30 Jahren für sequentielle Computer entwickelt worden“, gibt IBMer Mittel zu bedenken, „und jetzt fängt man wieder ganz unten an.“ Die Uneinigkeit der Amerikaner stellt bisher das schwerste Handikap dar, das einem Durchbruch der massiv-parallelen Konzepte im Weg steht. Denn, so weiß der Mannheimer Supercomputer-Experte Meuer: „Der Erfolg wird erst kommen, wenn die Software da ist.“ Doch etablierte Softwarefirmen – und da beißt sich die Katze in den Schwanz – investieren nach seiner Erfahrung nur in erfolgreiche Architekturen. Gelegentliche Jubelmeldungen, etwa die, daß American Express eine große Kundendatenbank auf eine Connection Machine von TMC umstellt oder daß BMW Verbrennungsvorgänge in Motoren mit einer nCube simuliert, lassen den Professor jedenfalls kalt: „Wenn da mal ein Ei gelegt wird“, grinst Meuer, „gackert gleich die ganze Welt.“

Am ehesten noch scheint Larry Ellison mit seiner Oracle-nCube-Allianz in der Lage zu sein, die Technik näher an den kommerziellen Erfolg zu führen. Seine Demonstration einer massiv-parallelen Datenbankanwendung, bei der eine nur gefrierschrankgroße 64-Prozessor-Maschine mit stattlichen 1073 Transaktionen pro Sekunde fertig wurde, hatte immerhin vor den strengen Augen unabhängiger Prüfer aus dem Beratungshaus Codd & Date Bestand. Diese Nachricht hat mittlerweile sogar die Verantwortlichen des Reiserechenzentrums Amadeus neugierig gemacht, die für ähnliche Leistungen einen ganzen Saal vom IBM-Großrechnern brauchen. Schon ist der um Worte nie verlegene Kalifornier überzeugt, mit dem Datenbankprodukt den Schlüssel zum Erfolg in Händen zu halten: „Den PC hat auch ein einziges Softwarepaket populär gemacht – Lotus 1-2-3.“

Im Vergleich zu den amerikanischen Verhältnissen bot sich in Europa bisher ein geradezu homogenes Bild: Das hiesige Quartett – die Aachener Parsytec des agilen Falk-Dieter Kübler, die französische Telmat und die beiden britischen Anbieter Parsys und Meiko – redete immerhin miteinander und lag technisch wesentlich näher beisammen als etwa Intel und Maspar oder NCR und TMC. Alle vier hatten sich sogar 1990 als Teilnehmer des Esprit-Programms GP (General Purpose) MIMD auf das Ziel geeinigt, einen Euro-Standard für massiv-parallele MIMD-Universalrechner zu entwickeln.

Doch seit kurzem hängt in der Gruppe der Haussegen schief. Der englische Halbleiter-Hersteller Inmos, dessen neuer Transputer T9000 der gemeinsame Nenner der Euro-Computer werden sollte, hinkt nämlich so sehr hinter dem ursprünglichen Zeitplan her, daß die Franzosen und ihre beiden Mitstreiter aus dem Vereinigten Königreich auf amerikanische Chips umschalteten – auf eine Kombination aus Sparc von Sun und i860 von Intel. Nur die Deutschen blieben dem Transputer treu und arbeiten jetzt, gemeinsam mit Inmos, fieberhaft an der endgültigen Serienversion des Prozessors für ihre neue Gigacube-Baureihe.

Intels Coup bei dem anglo-französischen Trio paßt indes perfekt zu der Bekanntgabe des Konzerns, in München ein Europäisches Supercomputer-Entwicklungszentrum (EDSC) zu gründen. Unter der Leitung des Informatikers Thomas Bemmerl von der TU München soll das EDSC Softwaretechniken für den Teraflops-Bereich entwickeln. Wohin die Reise geht, hat Bemmerls Boß Joseph Mozzarella, International Area Director für Intels Supercomputer Systems Division, bereits unmißverständlich verkündet: Die Amerikaner wollen sich „aktiver“ an der europäischen Hochleistungscomputer-Initiative beteiligen, die auf Anregung des Physik-Nobelpreisträgers Carlo Rubbia in der EG diskutiert wird. Mit dieser Einkreisungsstrategie kommen auf „Grand Challenges“-Fan Kübler und seine Parsytec-Mannschaft nun wirklich große Herausforderungen zu.

Sie sind der oder die 2281. Leser/in dieses Beitrags.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert