Zurück zur Startseite von Zubehör
Letzte Aktualisierung:
13-Jul-2015
Grafikkarten Baustelle Quelle(n): http://www.tu-chemnitz.de

Die Grafikkarte ist ein unverzichtbares Bauteil in einem Computer. Sie ist - zusammen mit einem Monitor und neben den Eingabegeräten (Tastatur, Maus etc.) - eines der wichtigsten Bindeglieder für die Interaktion zwischen Computer und Mensch. Ihre Aufgabe ist die Umsetzung der Ausgaben des Computers in für den menschlichen Anwender sichtbare und verständliche Zeichen am Monitor. Das war nicht immer so. In den Anfangstagen der IT übernahmen häufig Drucker bzw. Fernschreiber die Funktionen der Kombination Grafikkarte/Monitor. Alles, also z.B. Auswahlfunktionen von Programmen oder Eingabeaufforderungen des Betriebssystems (u.s.w.), mußte auf langsamen und lauten Druckern ausgegeben werden.

Die ersten Microcomputer der 70iger Jahre beschränkten sich auf reine Textdarstellung. Ende der 70iger kamen bereits Homecomputer wie der Tandy TRS-80 oder der Acorn Atom auf den Markt, die bereits "grafikfähig" waren. Doch hier kamen noch keine Grafikkarten als eigenständige Subsysteme zum Einsatz. Die für die Grafikdarstellung notwendigen Chips waren direkt auf den Motherboards integriert. Grafikkarten sind - wie der Name schon sagt - separate, austauschbare Leiterplatten, bestückt mit den entsprechenden Bauelementen, die in einen Erweiterungssteckplatz der Hauptplatine gesteckt werden. Über diesen Erweiterungssteckplatz ist sie mit dem Bussystem des Computers (ISA, EISA, VLB, aktuell: PCI, AGP) verbunden und kann die bereitgestellten Informationen empfangen, welche sie dann als vertikales und horizontales Synchronisationssignal an einen angeschlossenen Monitor übermittelt. Der erste PC, bei dem eine austauschbare, separate Grafikkarte Verwendung fand, war der Apple II.

Grafikprozessor und Grafikspeicher sind die wesentlichen Bauelemente auf einer Grafikkarte. Diese beiden Bauteile bestimmen die Bildauflösung, Farbenvielfalt und Geschwindigkeit und definieren dadurch die Leistungsfähigkeit einer Grafikkarte. Der Grafikprozessor ist ein spezialisierter Chip, der die CPU auf der Hauptplatine im Bereich der Bilddarstellung so weit wie möglich entlasten soll. Dazu muss er die die ankommenden Daten selbständig in Bildelemente umsetzen. Im Grafikspeicher (Video-RAM) wird das Bild in einzelne Bildpunkte zerlegt und als Bildpunktmatrix gespeichert. Der Unterschied zwischen Text- und Grafikdarstellung liegt dabei allein in der Form der Abbildung. Text wird im sogenannten Bildschirmspeicher als Folge von ASCII-Zeichen abgelegt. Jedem Zeichen folgt zusätzlich ein sogenanntes Attribut-Byte, das die Farbe oder andere Darstellungsformen festlegt. Bei der Grafikausgabe werden im Bildschirmspeicher einzelne Punkte abgelegt. Wie bei der Textdarstellung wird durch die Bildschirmspeicheradresse des Punktes auch die Position am Bildschirm festgelegt. Die Größe des benötigten Bildschirmspeichers richtet sich nach Bildschirmauflösung und Anzahl der gleichzeitig darstellbaren Farben. Bei einem IBM XT mit einer CGA Grafikkarte mit 320 x 200 Bildpunkten und 4 Farben werden 16KB benötigt.

Mit der sogenannten Bildwiederholfrequenz wird definiert, wie das menschliche Auge das Monitorbild sieht. Bei Fequenzen unter 70 Hz wird das zeilenweise Entstehen des Bildes noch wahrgenommen, es wirkt daher unscharf und flimmert. Bereits bei 72 Hz verliert sich dieser Eindruck vollständig. Im Besonderen bei grafischen Benutzeroberflächen müssen die Grafikkartenhersteller speziell dafür angepaßte Treiber liefern oder lassen diese (bei stark verbreiteten Kartentypen) in das jeweilige Betriebssystem als Standardtreiber integrieren.

Die Entwicklung der Grafikkarten

 

Den ersten Grafikkartenstandard definierte IBM mit Erscheinen des IBM PC's 1981. Obwohl dieser Begriff hier eigentlich falsch angewendet ist, denn der sogenannte Monochrom Display Adapater (MDA) leistete nur einfarbige Textdarstellung (80 Spalten, 25 Zeilen). Der Begriff Bildschirmkarte wäre daher angebrachter. Der Zeichensatz (256 ASCII-Zeichen) befand sich in einem ROM Baustein, die individuelle Anpassung via Software war bei MDA noch nicht möglich.

 

Das Manko der MDA-Karte, keine Grafiken darstellen zu können, griff die Firma Hercules auf und entwickelte 1982 die Hercules Graphic Card (HGC). Neben der Kompatibilität zu MDA besaß diese Karte einen Modus zur Darstellung monochromer Grafiken bis zu einer Auflösung von 720 x 348 Bildpunkten. Die Schriftarbe bzw. positive Farbe war abhängig vom verwendeten Monitor und konnte grün, bernstein oder sogar papierweiß sein. Die HGC Karte lösten die MDA-Karten ab ca. 1984 komplett ab, denn sie leisteten nicht nur mehr, sie waren auch billiger. Viele XT- und AT-Clone-Hersteller statteten ihre Geräte standardmäßig mit einem (zumindest kompatiblen) HGC-Adapter aus.

 

Nur wer unbedingt Farbe brauchte, griff ab 1983 zum von IBM entwickelten Color Graphics Adapter (CGA). Dieser konnte neben der 16farbigen Textdarstellung (bei Verwendung aller vier Paletten) auch Grafiken bis zu einer Auflösung von 320 x 200 darstellen. Das reichte allerdings nur für primitive Spiele. 160 x 200 Punkte bei 16 gleichzeitig darstellbaren Farben war ebenfalls möglich, doch diese Auflösung war für alle Anwendungsbereiche zu gering. Programme, die aus Performancegründen direkt in den Bildschirmspeicher schrieben lösten bei der CGA-Karte das sogenannte "Snowing" aus: eine Art Schneegestöber bei jedem Refresh des Bildschirms. Spätere CGA-Karten konnten auch im HGC-Modus betrieben werden und hatten dafür zusätzlich die dementsprechenden Monitoranschlüsse.

Für professionelle Anwender mit Farbbedarf entwickelte IBM 1984 das Bildschirmsystem Professional Graphics Display (PGA). Dieses System bestand aus einem speziellen hochauflösendem Monitor und der PGA - Grafikkarte. Durch den eigenen Microprozessor, 64 kByte eigenes ROM und 320 kByte RAM leistete sie - durch entsprechende Software unterstützt - genausoviel, wie eine 10mal teurere CAD-Anlage. Die PGA-Karte konnte schon 256 Farben bei einer Auflösung von 640 x 480 darstellen.

1985 brachte IBM mit EGA (Enhanced Graphics Adapter) endlich einen leistungsfähigeren Farbstandard. EGA unterstützte generell 16 gleichzeitig darstellbare Farben, egal ob im Textmodus oder bei der maximalen Grafikauflösung mit 640 x 350 Pixeln. Die Farben konnten aus 4 umschaltbaren Farbpaletten ausgewählt werden, wodurch dem Programmierer insgesamt 64 Farben zur Verfügung standen. Auf EGA-Karten befand sich erstmals ein eigenes Grafikkarten-BIOS. Die Vorgänger wurden noch über das BIOS des Computers angesteuert.

 

Der heute noch angewendete Standard VGA (Video Graphic Array) - wiederum von IBM definiert - lieferte aus technischen Gründen erstmals ein analoges statt einem digitalen Signal um die Beschränkungen der Farbtiefe abzustellen. Die Auflösung beträgt 640 x 480 Bildpunkte, wobei wie bei EGA maximal nur 16 Farben gleichzeitig darstellbar sind. 256 Farben gleichzeitig schafft VGA bei einer auf 320 x 200 Punkte reduzierten Auflösung. Im VGA-Standard verankert war ebenfalls die Möglichkeit, sogenannte Accelerator-Grafikkarten zu verwenden. Accelerator-Karten (s.a. 8514/A) spezialisierten sich auf hochauflösende Modi und/oder hohe Farbtiefe, während die VGA-Karte für die Text-Darstellung und Standard-Grafik zuständig war.

Das ebenfalls bekannt gewordene SVGA (Super Video Graphics Array) erreichte eine maximale Grafikauflösung von 800 x 600 Punkten und wesentlich mehr Farben wie die Standard-VGA-Auflösung (max. 16,7 Mio.) Das alles konnte natürlich nur durch durch größere Videospeícher realisiert werden. Zudem waren weitere Textmodi sowie ein Hardwarecursor auch bei Grafikbetrieb verfügbar. Aufgrund der größeren Videospeicher (> 256 K) und der unterschiedlichen Implementierung des Bankswitchings durch die Hersteller war SVGA war zunächst kein explizit definierter Standard. Dies wurde jedoch später durch die VESA (Video Electronics Standards Association) geändert (VESA SVGA).

Für seine PS/2 (Microchannel) Serie entwickelte IBM 1987 den 8514/A Grafikadapter, die erste 2D Beschleuniger-Karte mit eigenem, aber noch geringem Befehlssatz (Linien, Füllen von Rechtecken, Bit-Blitting) zur Entlastung der CPU. Sie war für eine Auflösung von max. 1024 x 768 und gleichzeitig darstellbaren 256 Farben ausgelegt. Die hohe Bildwiederholrate von 86Hz wurden bei der höchsten Auflösung jedoch nur im Zeilensprungverfahren (interlaced) erreicht, wodurch die Darstellung nicht flimmerfrei war. Die 8514/A Karten konnten außerdem keine VGA Modi darstellen, sondern benutzten über einen Konnektor einen vorhandenen VGA Chip, der entweder - wie bei den PS/2 Modellen von IBM - auf der Hauptplatine vorhanden oder in Form einer geeigneten VGA Karte eigebaut war. Einige Mitbewerber wie ATI, TI, Elsa und Miro boten später ebenfalls 8514 Karten auch für den ISA Bus an, die jedoch ohne Zeilensprungverfahren über 70 Hz erreichten und damit wesentlich bessere Bildqualität boten. Zudem waren auf späteren Karten eigene VGA Chip integriert.

Ein fast schon vergessener Standard ist TIGA (Texas Instruments Graphics Architecture). Diese Grafikkarten kamen ab etwa 1990 auf den Markt und wurden speziell auf die Verwendung unter Microsoft Windows hin konzipiert. Sie schafften Auflösungen mit mindestens 1280 x 1024 Bildpunkte bei 256 gleichzeitig darstellbaren Farben (aus 16 Mio.). Prinzipiell sind das jedoch keine Obergrenzen, denn dem Grafikprozessor auf der TIGA Karte war es eigentlich egal, welche Auflösung er darstellen muss. Er arbeitet selbständig und beherrscht komplexe Grafikbefehle. Die hochentwickelsten Typen (TMS 34010, später TMS 34020) können auch sogenannte "Display Lists" (in einem Speicher abgelegte Programme) abarbeiten und entlasten so die CPU eines Computer maximal. Nachteil dieser aufwändigen Konzeption war der zumindest anfangs hohe Anschaffungspreis, der die Anwendung der TIGA-Grafikkarten auf CAD- und CAM-Bereiche beschränkte.

Ein offiziell nicht klar definierter Quasi-Standard wurde 1990 mit XGA (eXtended Graphics Array) wieder einmal von IBM vorgestellt. XGA führte die beiden Standards VGA und 8514/A zusammen schaffte so Auflösungen bis 1280 x 1024 Bildpunkte bei maximal 256 gleichzeitig darstellbaren Farbtönen. Der normale Betriebsmodus bei XGA jedoch sind 1024 x 768 Punkte bei 65536 Farben, ein auch heute noch adäquater Bildschirmmodus bei vielen Standard-PC's. Weitere offene Standards sind SXGA (Super-Extended Graphics Array) und UXGA (Ultra-Extended Graphics Array).

Übersicht der wichtigsten Grafikkarten und deren Modi

Bezeichnung Auflösung Zeichen Farben Monitor Signal
Monochrome Display Adapter (MDA) 720x350 80x25 mono Text Digital
Hercules Graphics Card (HGC) 720x348 80x25 mono Gr/Txt Digital
Color Graphics Adapter (CGA) 300x200 40x25 16 Text Digital
640x200 80x25 16 Text
320x200 40x25 4 Grafik
640x200 80x25 2 Grafik
Enhanced Graphics Adapter (EGA) 320x350 40x25 16 Text Digital
640x350 80x25 16 Text
720x350 80x25 mono Text
320x200 40x25 16 Grafik
640x200 80x25 16 Grafik
640x350 80x25 mono Grafik
640x350 80x25 16 Grafik
Prof. Graphics Adptr (PGA) 640x480 80x30 16 Gr/Text Analog
MultiColor Graphics Array (MCGA) 320x400 40x25 16 Text Analog
640x400 80x25 16 Text
640x480 80x30 2 Grafik
320x200 40x25 256 Grafik
Video Graphics Array (VGA) 360x400 40x25 16 Text Analog
720x400 80x25 16 Text
720x400 80x25 mono Text
320x200 40x25 16 Grafik
640x200 80x25 16 Grafik
640x480 80x30 16 Grafik
320x200 40x25 256 Grafik
Super VGA (SVGA) 640x480 80x34 256 Grafik Analog
1024x768 85x38 256 Grafik
1024x768 146x51 256 Grafik
Extended Graphics Array (XGA) 640X480 256 Grafik Analog
1024x768 256 Grafik
Extended Graphics Array (XGA-2) 1280x1024 256 Grafik Analog