... for Everyone!?
Software - "Fundamental anders"[/b][b]Prozessoren mussten bislang vor allem schnell sein. Doch neuerdings schlagen
mehrere Herzen auf dem Chip eines Computers. Die Folge: Programmierer
müssen umdenken und völlig neue Software entwickeln.
Von Helmut Martin-Jung[color:"orange"]Die Idee war einfach und doch genial: Wenn die Hauptprozessoren, die Herzen der
Computer, mit vertretbarem Aufwand nicht mehr schneller gemacht werden
können, dann sorgen eben mehr Herzen dafür, dass die Bits schneller durch den
Computer fließen. Schon werden kaum noch neue Rechner verkauft ohne die
neuen Doppelkern-Prozessoren - quasi zwei Herzen auf einem Chip. Und die ersten
Vierkern-Maschinen sind zwar noch teuer, aber schon zu haben.
Doch ganz so einfach wie es aussieht, ist die Sache nicht. Auch mehr Arbeiter auf
einer Baustelle bringen nur dann etwas, wenn sie alle gleichzeitig etwas zu tun
haben und sich nicht auf den Füßen herumstehen. Aber auf exakt dieses Problem
läuft die Industrie gerade zu.
Herzen schlagen immer schnellerGewöhnt daran, dass die Herzen der Computer einfach immer schneller schlagen,
so wie es seit den ersten Personal Computern in den 80er Jahren Tradition war,
hat es sich die Software-Industrie recht bequem gemacht und kaum einen
Gedanken daran verschwendet, ihre Programme so auszulegen, dass sich
mehrere Recheneinheiten die Arbeit teilen können.
Um die vielen neuen Arbeiter überhaupt sinnvoll einzusetzen, muss die Software
aber die Jobs sinnvoll vergeben, sprich: Die Aufgaben müssen parallel
abgearbeitet werden. Aber an dieser Front, räumte Timothy Mattson, ein Forscher
des Prozessorherstellers Intel, jüngst ein, "herrscht Chaos".
Und Craig Mundie, oberster Forscher des Software-Riesen Microsoft, sieht in der
Parallelisierung "den größten Umschwung, den wir in den vergangenen 20 oder 30
Jahren erlebt haben". Sein Kollege Ty Carlson, Strategiechef bei Microsoft,
verkündete bereits, die nächste Version von Windows müsse wegen dieses
Problems "fundamental anders" werden.
Was für die Computer zu Hause oder im Büro noch Neuland ist, stellt für die
sogenannten Superrechner längst den Normalfall dar. Diese Maschinen, die bald
eine Billion Rechenoperationen pro Sekunde schaffen sollen, erlauben
Wissenschaftlern, der Natur ihre Geheimnisse immer exakter zu entreißen, im
Großen wie im Kleinen, bei Klimasimulationen ebenso wie bei der Berechnung
komplexer Moleküle.
...
Doch Standard-Software, wie sie auch im Computer zu Hause läuft, ist noch weit
weniger darauf ausgelegt, von den Fähigkeiten der neuen Mehrkernprozessoren zu
profitieren als die Programme, die auf Supercomputern laufen. Intel, eigentlich
klassischer Hardwarehersteller, investiert daher im eigenen Interesse auch in
Softwareprojekte.
Parallel denken lernenAuch die Experten vom Leibniz-Rechenzentrum bieten Kurse an, bei denen
potentielle Nutzer ihres Superrechners lernen, wie sie durch Parallelisierung die
Maschine erst richtig ausnutzen können. Die Software erst auf herkömmliche Art zu
schreiben und dann für die Parallelverarbeitung abzuändern, funktioniert meist nur
mäßig.
Den Informatikern fielen daher vor allem zwei große Aufgaben zu, wie Wolfgang
Karl vom Karlsruher Lehrstuhl für paralleles Rechnen erläutert. Zum einen zu
forschen, "wie man auf hoher Abstraktionsebene ein Programm erstellt, ohne
genau zu wissen, wie viele Prozessoren am Ende arbeiten". Zum anderen das
Denken in parallelen Strukturen zu vermitteln: "Die Leute müssen so denken
lernen."
Auch das aber wird wohl nicht verhindern können, dass sich immer wieder neue
Grenzen auftun. Der Cluster-Experte Tim Palmer, der im britischen Reading an
Wetter- und Klimamodellen arbeitet, sorgt sich bereits um eine Zukunft, in der die
Zahl der Prozessoren in Superrechnern ins Gigantische steigen könnte. Für eine
Million Prozessoren zu programmieren, zitiert ihn die Fachzeitschrift Nature, das sei
eben noch einmal eine ganz andere Herausforderung.[/color]
Ragon Duplicatus
<img src="/ubbthreads/images/graemlins/winkwink.gif" alt="" />