Die lange Tradition der Co-Prozessoren

Nun wissen wir also, dass amerikanische Dächer einem Meteoriteneinschlag nicht standhalten. Aber eigentlich viel interessanter ist Lino Guzzellas Hybridkonzept, wofür er völlig gerechtfertigt die Watt d’Or Auszeichnung erhielt. Und wenn wir schon bei Nachrichten vom Poly sind, dann hier VSETHs Pressecommuniqué zu den beleidigenden Vorwürfen bezüglich deutscher Professoren.

Eigentlich wollte ich heute die Umfrage-Ergebnisse präsentieren, doch leider ist dazu die statistische Basis noch zu gering. Also, ich möchte diejenigen, die noch nicht abgestimmt haben, einladen, Eure Meinung kundzutun (3 Seiten).

Die ständigen Fermi-Ankündigungen (und Ab-…) liessen mich mal über Co-Prozessoren nachdenken. Aber alles der Reihe nach. Wie begann das eigentlich mit diesen die CPU unterstützenden Prozessoren? Die erste Anwendung waren Fliesskomma-Rechenknechte. Ich kann mich erinnern, ohne Gleitkommazahlen programmiert zu haben. Das ist recht mühsam — oder alternativ sehr langsam. So hat Intel zu ihren x86-CPUs die x87-Co-Prozessoren kreiert (Intel 8087, 80287 und 387 — im Prinzip gab es auch einen 487, aber das war ein Trick). Bei entsprechenden Anwendungen, z.B. trigonometrischen Funktionen, konnten sie zu einem enormen Geschwindigkeitszuwachs führen (angeblich bis 100-fach). Ab dem 486 (nur die DX-Variante) integrierte Intel die Fliesskommaeinheit in die CPU. Und heute erinnert sich (fast) niemand mehr daran, dass es früher separate Chips waren.

Ein nächster Co-Prozessor-Typ spezialisierte sich auf die Grafikberechnung. Als noch Accolades “Winter Challenge” das Mass aller Dinge war (für Nostalgiker: Titus the Fox, Blues Brothers, Prince of Persia, Railroad Tycoon, Dune II, Battle Isle, 4D Sports Driving, Wing Commander, X-Wing, Rebel Assault, Dark Forces, Indiana Jones 3, Monkey Island — Man merke: Nie den Groove verlieren.), da kamen die ersten Grafik-Beschleunigerkarten auf, wie beispielsweise die Cirrus Logic GD5420. Unvergessen auch die Trident-, S3- und Oak-Karten. Bald reichte der ISA-Bus für die Datenübertragung nicht mehr und musste übergangsweise dem Vesa Local-Bus und dann aber mit mehr Erfolg dem PCI-Bus Platz machen.

Das Besondere an einem auf Grafikanwendungen spezialisierter Co-Prozessor ist die SIMD-Architektur. Gegenüber der klassischen und universelleren MIMD-Auslegung, wie heutige CPUs, werkeln hunderte, vergleichsweise einfache Prozessoren, synchron. In meiner GTX-260 sind das 216 sogenannte Stream Processors. Dies summiert sich auf 1.4 Mia Transistoren, also doppelt so viele wie in meiner CPU (Core i7, Bloomfield). Wobei natürlich die ständigen Verwechslungen bezüglich kurzer und langer Leiter (wie wär’s, wenn man das mal normieren würde?) auch nicht gerade zur Entwirrung beitragen. Mit dem integrierten, sehr schnellen und breit angebundenen Speicher führt dies zu äusserst schnellen Rechenspezialisten, welche vermehrt auch für Berechnungen in Forschung und Entwicklung eingesetzt werden. Es gibt gar “Grafikkarten” ohne Monitoranschluss, welche ausschliesslich diesem Ziel dienen. Ich habe mir diesbezüglich für meine CFD-Simulationen auch Gedanken gemacht. Der Fermi-Chip, wie oben erwähnt, ist nun nVidias neueste Kreation und wird heiss erwartet. Es wird sowohl über die Rechenleistung als auch über die elektrische Leistung spekuliert und teilweise verbissen debattiert. Aktuell gilt März 2010 als Erscheinungstermin.

Der elektrische Leistungsbedarf moderner GPUs übersteigt jenen einer CPU deutlich. In Notebooks sind solche “Heizungen” absolut undenkbar; zudem ist diese Grafikleistung oft nicht notwendig. Daher sind für diese Anwedung — und das macht 90% aus — verhältnismässig einfach und sparsame GPUs in die Chipsätze integriert. Noch einen Schritt weiter geht Intel mit dem Core i3, welcher in der CPU (gleiches Gehäuse, separate Die) eine GPU beherbergt. Dies ist nicht nur sehr günstig zu fertigen, sondern ein guter Kompromiss für sparsame Computer. Für Intel ist das sowieso vorteilhaft, denn es steigert voraussichtlich ihren Anteil an installierten GPUs. Denn auf eine GPU kann man mit DVD, Blu Ray und bald auch 3D unmöglich verzichten.

Und noch ein Beispiel für einen weit verbreiteten Co-Prozessor: Der Digitale Signalprozessor (DSP) für die Tonausgabe. Nachdem die ersten Soundkarten auf dem Markt geworfen wurden, hat sich gezeigt, dass komplexe Tonsignalmanipulationen, z.B. so simple Dinge wie das Hinzufügen von Hall/Echo, die CPU ganz schön arg belasten. Die erste Creative-Soundkarte mit DSP, die Sound Blaster Live!, hatte einen EMU10k1 an Bord. Dieser DSP bestand aus relativ bescheidenen 2.44 Mio Transistoren (350 nm). Die Audigy hatte dann den leicht verbesserten EMU10K2 mit bereits 4 Mio Transistoren. Richtig zur Sache ging es mit der X-Fi-Lösung, welche je nach Ausführung entweder den EMU20K1 (51 Mio Trans. in 130 nm) oder den EMU20K2 (54 Mio Trans. in 90 nm) beherbergt. Wer hätte gedacht, dass solch ein DSP bereits mehr Transistoren als die CPU meines ehrwürdigen, und bis vor kurzem noch im Einsatz stehenden, Pentium IV aufweisen würde? OK, das stimmt nicht ganz: Erste Pentium IV Serien (Willamette) hatten nur 42 Mio Transistoren, doch meine CPU aus der Prescott-Serie bereits 125 Mio (liegt hauptsächlich am vergrösserten L2-Cache). Ob diese Sound-Co-Prozessoren wohl auch bald in die CPU wandern, ähnlich wie FPU und GPU?

Zusammenfassend beobachte ich bei allen die CPU unterstützenden Prozessoren die folgende Reihe: separate Einsteckkarte -> Integration auf das Mainboard -> Integration in den Chipsatz -> Integration in die CPU.

Da dieser Blog-Eintrag einiges an Nostalgie beinhaltet, hier noch ein Tipp an alle, die mit mir am Mount Hood skifahren waren: Microsofts Bing-Suchmaschine zeigt dieser Tage ein lustiges Hintergrundbild (ca. fünf Tagesbilder zurückspringen — klickt man ein paar Bilder in die Vergangenheit, kommt plötzlich das Schlangestehen der Skifahrer am Mount Hood). Danke, Martin!

 

One response

  1. Protoenli says:


    Gestern Abend habe ich Deinen Blogeintrag gelesen und mindestens eine Stunde auf YouTube die guten alten Spiele aufleben lassen. Hach, das waren noch Zeiten! :-)
    Vielen Dank jedenfalls für den Hinweis, dass man die alten Spiele auf YouTube ansehen kann, ich bin bisher selbst noch nie drauf gekommen, danach zu suchen.

Leave a Reply