Untersuchung der Echtzeitfähigkeit von Budget-Grafikkarten


Diplomarbeit, 2004

129 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

I. Vorwort

1. Einleitung

2. Entwicklung der Grafikkarte
2.1 Grundlegender Aufbau
2.1.1 Bussystem
2.1.2 Grafikspeicher
2.1.3 RAMDAC
2.2 Technologische Entwicklung
2.2.1 Die Anfänge
2.2.1.1 Erste Grafikkarte
2.2.1.2 Erster Grafikmodus
2.2.1.3 Erste Farbdarstellung
2.2.1.4 „256 Farben“-Darstellung
2.2.1.5 „True Color“-Darstellung
2.2.2 Windows Beschleuniger
2.3 Implementierung von 3D-Funktionalität

3. Die Grafik-Pipeline
3.1 Begriffsdefinition
3.1.1 API
3.1.2 Spaces
3.1.3 Pipelining
3.2 Stufen der Pipeline
3.2.1 Programmstufe
3.2.2 Geometriestufe
3.2.3 Triangle Setup-Stufe
3.2.4 Rendersstufe

4. Analytische Betrachtung zu Echtzeit und CG
4.1 Ansprüche und Wirklichkeit
4.2 Definition „Kinoreif“
4.3 Unterschiede CG-Film und Echtzeit-Rendering
4.4 Beispiel „Final Fantasy“ Präsentationen

5. Echtzeit in der Umsetzung
5.1 Previsualisierung für Film
5.1.1 Kamera und Set
5.1.2 Shader
5.2 Final Frame Rendering
5.3 Visualisierung
5.4 Machinima
5.5 Grafikdemos
5.6 Computerspiele
5.7 Zukünftige Erwartungen

6. Zusammenfassung

Anhang:

7. Bibliographie

8. Bildverzeichnis

Vorwort

Ohne die zahlreichen Anregungen und Hilfen verschiedenster Art, die ich von vielen Seiten erhalten habe, wäre die vorliegende Diplomarbeit nicht in dieser Form entstanden.

Mein besonderer Dank gilt meinen Eltern und meiner Schwester, die immer ein großes Interesse an meiner Arbeit zeigten und mich während meines Studiumes sehr unterstützt haben.

Namentlich bedanken möchte ich mich bei folgenden Personen:

Herrn Prof. Dr. B. W. danke ich für das in mich gesetzte Vertrauen und für seine Unterstützung bei der Festlegung des Themas.

Herr Prof. Dr. H. V. war zu jeder Zeit für geduldige und kritische Beratung zur Stelle. Ihm verdanke ich wertvolle Anmerkungen und Verbesserungsvorschläge für die inhaltliche Überarbeitung meiner Diplomarbeit.

Herrn M. K. danke ich für die kritische Durchsicht des Textes.

1. Einleitung

In dieser Arbeit wird die derzeitige Echtzeitfähigkeit von Budget-3D-Grafikkarten analysiert. Dies geschieht unter Berücksichtigung der Zusage seitens der Hersteller solcher Hardware, die behaupten, dass Hardware bereits dazu in der Lage sei, sogenannte „kinoreife“ Echtzeit-3D- Grafik zu bieten.

Die Beschränkung des Themas auf Budget-3D-Grafikkarten ergibt sich zum einen aus dem Anspruch der Hersteller, genau diese Hardware sei zu dieser Leistung im Stande, als auch durch die Tatsache, dass im Bereich der Budget-3D-Grafikkarten die kürzesten Innovationszyklen vorherrschen. Der Markt verändert sich schnell und erlaubt auf lange Sicht keine Fehler, wenn ein Grafik-Hardware-Hersteller erfolgreich sein möchte.

Unerlässlich zur Analyse und zum Verständnis des Ergebnisses der Arbeit ist es, die grundsätzlichen Abhängigkeiten der 3D-Grafik-Hardware von den anderen Komponenten eines Computersystems zu kennen sowie einen Einblick in die Entwicklung der Gesamtarchitektur zu bekommen. Diese Gesamtarchitektur beeinflusst die Leistungsfähigkeit der Grafik-Hardware und ist somit Teil des Echtzeit-Render-Prozesses. Zusätzlich ist diese wiederum ein wichtiger Teil der Entwicklung der Grafik-Hardware selbst, die für den heutigen Stand der Budget-3D- Grafikkarten verantwortlich ist.

Der Anspruch „kinoreifer“ Echtzeit-3D-Grafik verlangt nach einer Definition, die anhand einer Analyse der CG-Kinofilme der letzten Jahre von den „Blue Sky Studios“, „Pixar“, „PDI/ Dreamworks“ und „Square Pictures“ formuliert wird. Diese Definition ermöglicht anschliessend eine Analyse der Echtzeitfähigkeit mittels Betrachtung der unterschiedlichen Anforderungen in den Bereichen Echtzeit-Rendering und CG-Kinofilm-Rendering.

Das Ergebnis der Analyse erlaubt eine Aussage über den aktuellen Stand und die Möglichkeiten der Nutzung heutiger Budget-3D-Grafikkarten sowie eine Äusserung über die zukünftigen Erwartungen.

Der Autor stützt sich in dieser Arbeit neben der in der Bibliographie angegebenen Fachliteratur auch wesentlich auf eigene Erfahrungen im Bereich der Budget-3D-Grafikkarten. Eingeflossen sind Erfahrungen, die während seiner Zeit als Mitarbeiter bei einem englischen Grafik-Hardware­Hersteller im Bereich der Produktprüfung gesammelt wurden. Ausserdem beinhaltet die Arbeit Erfahrungen, die der Autor als Chefredakteur und Herausgeber einer englischsprachigen Internetseite machte, die sich seit den Anfängen der Budget-3D-Karten mit diesem Thema beschäftigte.

Die kurzen Innovationszyklen im Bereich der Budget-3D-Hardware und der Anspruch auf Aktualität setzen zudem voraus, dass die jeweils neuesten Informationen berücksichtigt werden. Da Print-Medien diese Voraussetzung nur unzureichend gewährleisten, wurde für diese Arbeit verstärkt das Internet zur Informationsbeschaffung herangezogen.

2. Die Entwicklung der Grafikkarte

Die Grafikkarte hat bis heute eine Entwicklung von etwa 30 Jahren hinter sich. In dieser Zeit hat sie die verschiedensten technologischen Stufen durchlaufen, die im Folgenden aufgezeigt werden.

2.1 Grundlegender Aufbau

Eine Grafikkarte ist eine Platine, die in einen auf dem Motherboard vorhandenen Steckplatz eingesetzt wird. Dieser ist mit dem Bussystem des Computers verbunden. Das Bussystem, über das die Grafikkarte angesprochen wird, hat sich über die Zeit verändert und ist zu einer eigenständigen Architektur geworden, die heute ausschliesslich für die Grafikkarte zuständig ist.

2.1.1 Bussystem

Das Bussystem[1] übernimmt den Datentransfer zwischen den einzelnen Komponenten im Rechner. Die Bandbreite des Bussystems ist ausschlaggebend für die Verarbeitungsgeschwindigkeit der Daten. Die theoretisch maximale Bandbreite des Bussystems errechnet sich über:

Abbildung in dieser Leseprobe nicht enthalten

Die maximale Bandbreite ist für die Grafikverarbeitung der Hauptgrund neuer Entwicklungen zur Verbesserung der Transferleistung. Je schneller die Karten wurden, um so schneller verlangten sie nach Informationen, die nur durch eine höhere Bandbreite lieferbar waren.

Abbildung in dieser Leseprobe nicht enthalten

Im Folgenden wird die Entwicklung des Bussystems bezogen auf die Grafikkarte in chronologischer Reihenfolge in ihren wesentlichen Entwicklungsstufen dargestellt:

ISA (Industry Standard Architecture)

ISA wurde 1981 der Bussystemstandard mit einem 8Bit Interface und 4,7MHz Takt. 1984 wurde ISA überarbeitet und bot von da an ein 16Bit Interface mit 6MHz Takt.[2]

MCA (Micro Channel Architecture)

„IBM“ stellte 1987 den MCA Standard vor, der nur für die eigenen Systeme und inkompatibel zum ISA Standard war. MCA hatte ein 32Bit Interface und einen Takt von 10MHz.[3]

EISA (Enhanced-ISA)

Große Computerhersteller wie „Gateway“, „Compaq“ und viele andere Hersteller suchten 1988 nach einer Alternative zu MCA und brachten den EISA Standard hervor. Dieser besass genau wie der MCA ein 32Bit Interface mit 8,33MHz Takt. EISA blieb jedoch im Gegensatz zu MCA zu ISA kompatibel, indem er weiterhin 8 und 16Bit unterstützte.[4]

VLB (VESA Local Bus)

1992 stellte die VESA (Video Electronics Standards Association) den VLB vor. Dieses Bussystem wurde primär für schnelle Hardware wie Grafikkarten, Festplatten-Controller, und viele andere entwickelt. Der Takt des VLB basiert auf der Taktfrequenz des FSB (Front Side Bus) des Prozessors. Es gab beispielsweise einen Intel 486 Prozessor mit 33MHz aber auch einen Intel 486 Prozessor mit 50MHz. Die Interface-Breite betrug 32bit. Bei der neueren Spezifikation VLB 2.0, die zu einem späteren Zeitpunkt auf dem Markt verfügbar war, gab es ein 64Bit Interface.[5]

PCI (Peripheral Component Interconnect)

Als Alternative zum VLB wurde 1992 von „Intel“ der PCI Standard eingeführt. PCI 1.0 basierte auf einem 32Bit Interface mit 33MHz. Die Server-Variante PCI 2.0 besass ein 64Bit Interface, das mit 33,66 oder 133MHz getaktet wurde.

Die erweiterte Funktionalität war der entscheidende Vorteil von PCI gegenüber VLB:

- Über Busmastering wurde die direkte Kommunikation zwischen zwei PCI-Karten ermöglicht.
- Look Ahead erlaubte Anomalien in der Datenübertragung im voraus zu erkennen und dadurch Fehler in der Verarbeitung der Daten zu verhindern.
- Buffering führte ein Prioritätenmanagement in der Bearbeitung von Systembefehlen ein. Es erlaubte weniger wichtige Befehle zwischenzuspeichern, um wichtigeren den Vortritt zu lassen.

PCI ist nicht kompatibel zu ISA.[6]

AGP (Accelerated Graphics Port)

Der 1996, von „Intel“, eingeführte AGP ist im eigentlichen Sinne kein Bus sondern eine Punkt zu Punkt Verbindung, die ausschliesslich für die Grafikkarte verwendet wird. Sie erlaubt über Busmastering den direkten Zugriff auf den Systemspeicher (Arbeitsspeicher des Computers). Diese Eigenschaft wurde bei der Einführung als die wichtigste Funktion angepriesen. Denn durch diese Funktion sollten Texturen im Systemspeicher untergebracht werden, falls der Grafikspeicher nicht ausreichte. So sollte es möglich sein, größere, detailiertere Texturen zu verwenden.

Der AGP erlaubte im Gegenteil zu PCI und den Vorgängern das Pipelining von Zugriffen. Durch diese Fähigkeit musste nicht erst ein Taktzyklus abgewartet zu werden, bevor wieder neue Informationen ausgetauscht werden können.

SBS (Side Band Signaling) beziehungsweise SBA (Side Band Addressing) erweiterte das Interface von 32Bit um weitere 8 Control-Bits, die ausschliesslich zur Synchronisation von Systemspeicher und Grafikkarte genutzt wurden. Der Takt betrug 66MHz.

Zusätzlich beinhaltete AGP noch 2 Funktionsmodi: DMA (Direct Memory Access) oder auch „Pipe“ genannt und DIME (Direct Memory Execute). DMA erlaubte den Zugriff auf den Systemspeicher. DIME jedoch ermöglichte es dem Grafik-Chip, Texturen direkt aus dem Systemspeicher zu nutzen. Der DIME-Modus war die schnellste Variante wenn es notwendig war, Systemspeicher zur Auslagerung von Texturen zu verwenden.

Aus AGP1x wurde AGP2x, AGP4x und danach AGP8x entwickelt, da immer mehr

Bandbreite notwendig war, um die Grafikkarten mit Daten zu versorgen. Ab AGP4x kam noch eine Funktion hinzu, die sogenannten „Fastwrites“, über die die CPU (Central Processing Unit) direkt in den Grafikspeicher schreiben konnte.[7]

PCI-X (PCI-Express)

Nachfolger des AGP8x wurde der PCI-X, der ebenfalls eine Punkt zu Punkt Verbindung darstellte. PCI-X wird jedoch nicht nur für Grafikkarten verwendet, sondern auch als Bussystem für andere Hardwarekomponenten.

Während AGP4x und frühere Versionen nur einen Port erlaubten, gab es bei AGP8x schon die Möglichkeit, zwei Ports zu verwenden. Diese Funktion wurde bei AGP8x jedoch nicht genutzt. Da PCI-X im Gegensatz zu AGP nicht ausschliesslich zur Anbindung der Grafikkarte vorgesehen ist, erlaubt es nahezu beliebig viele Ports zur Verfügung zu stellen. PCI-X ist von der Spezifikation her nicht auf eine bestimmte Anzahl limitiert.

PCI-X ist derzeit zur Anbindung der Grafikkarte als PCI-X 16x verfügbar. PCI-X 32x scheint in naher Zukunft realisierbar.

Abbildung in dieser Leseprobe nicht enthalten

2.1.2 Grafikspeicher

Auf der Grafikkarte[8] selbst befindet sich neben dem Grafikprozessor, der Grafikspeicher. Dieses sind die beiden wesentlichen Bauelemente, die bestimmen, welche Auflösung, Farbtiefe und Geschwindigkeit möglich sind. Aus ihrer Leistungsfähigkeit ergibt sich die Gesamt-Performance einer Grafikkarte. Der Grafikspeicher ist hierbei ein entscheidendes Kriterium für die Geschwindigkeit der Informationsverarbeitung. Takt und Latenzzeit spielen beim Grafikspeicher die wichtigste Rolle. Der Speichertakt im Zusammenhang mit dem Speicherinterface des Grafik­Chips bestimmt die zu erwartende theoretische Bandbreite und Transferleistung.

In der folgenden Aufstellung bezieht sich die Transferleistung nur auf die eines einzelnen Speichermoduls.

Die Latenzzeit bezieht sich auf die Zeitspanne, die die Daten nach Beginn eines Speicherzugriffs benötigen, bevor sie am Ausgang des Speichers zur weiteren Nutzung bereitstehen. Je kürzer die

Latenzzeit ist, desto schneller kann der Speicher wieder angesprochen werden. Gerade bei vielen kleinen Zugriffen führt diese Eigenschaft zu einem wesentlichen Geschwindigkeitsvorteil.

Grafikkartenspeicher-Übersicht*

Abbildung in dieser Leseprobe nicht enthalten

FPM DRAM (Fast Page Mode Dynamic RAM)

FPM DRAM ist der langsamste Grafikspeicher, der eine Latenz von 70ns besitzt, mit 32Bit organisiert ist und mit einem 33 oder 50MHz Takt läuft. Die maximale Transferleistung beträgt bei einem Takt von 50MHz 200MB/s.

EDO DRAM (Extended Data Out DRAM)

Ist dem FPM ähnlich jedoch mit der Möglichkeit während einer Lese-Schreib-Operation bereits die nächste zu starten. Die Latenzzeit beträgt 50-60ns und der Takt bis 66MHz. Bei EDO DRAM beträgt die maximale Transferleistung 264MB/s.

VRAM (Video RAM)

VRAM hat zwei Ports, kann also gleichzeitig schreiben und lesen. Er wurde speziell für Grafikkarten entwickelt und auf hochwertigen Modellen verwendet.

Die Latenzzeit beträgt 20-25ns und der Takt 80MHz.

Bei VRAM beträgt die maximale Transferleistung 320MB/s.

WRAM (Windows RAM)

WRAM ist eine VRAM-ähnliche Entwicklung von „Samsung“. Dieser Speichertyp kann wie VRAM gleichzeitig lesen und schreiben, bringt aber zusätzlich schnellere Bit-BLTs (Bit Block Transfer Operationen) und einen sogenannten Dual Color Block Write Mode zur Beschleunigung von Text- und Flächendarstellung mit.

MDRAM (Multi-Bank DRAM)

MDRAM ist eine Entwicklung der „MoSys Inc“ und besteht aus zusammengefassten 32k kleinen DRAM Blöcken mit eigener Ein- und Ausgangs Steuerung. Dieses erlaubt ein flexibleres Handling, denn Zugriffsprozesse sind überlappbar und es kann simultan auf mehrere Blöcke zugegriffen werden.

Durch diesen Aufbau ermöglicht MDRAM eine Transferleistung von bis zu 800MB/s.

SDRAM (Synchronous DRAM)

SDRAM synchronisiert sich, wie der Name schon ausdrückt, selbstständig mit dem FSB des Prozessor. Die Latenzzeiten liegen zwischen 6 und 12ns bei einem Takt von 66, 100 oder 133MHz. SDRAM ist mit 64Bit organisiert und liefert bei 133MHz Takt eine maximale Transferleistung von 1.064MB/s.

SGRAM (Synchronous Graphics RAM)

SGRAM basiert auf SDRAM, ist jedoch in seinem Funktionsumfang erweitert und damit den Grafikanforderungen angepasst worden. Es existiert eine Funktion zum Schreiben beziehungsweise Lesen ganzer Speicherbereiche und eine Funktion zum Ändern einzelner Bits im Speicher.

SGRAM besitzt einen 100 - 166 MHz Takt und Latenzen von 6 - 10ns.

DDR-SDRAM oder GDDR-SDRAM (Graphics Double Datarate SDRAM)

DDR-SDRAM gleicht dem SDRAM, jedoch werden pro Takt zweimal Daten übertragen, was die Bandbreite verdoppelt. Es besitzt in der dritten Generation eine Latenzzeit von 1.2 - 3ns bei einem Takt von zur Zeit bis zu 400MHz. Das erhöht die Transferleistung auf bis zu 6.400MB/s. Für die Zukunft ist mit weiteren Takterhöhungen zu rechnen.

RDRAM oder DRDRAM (Direct Rambus DRAM)

RDRAM ist ein Speichertyp der Firma „Rambus“, der im Gegensatz zu den anderen keine Weiterentwicklung sondern eine Neuentwicklung darstellt. Bei diesem Speicher arbeitet intern ein Bussystem mit einem nur 16Bit breiten Interface, die einzelnen Speichermodule sind aber dafür jedoch mit derzeit bis zu 600MHz getaktet.

Zusätzlich werden wie beim DDR-SDRAM zwei mal pro Takt Daten übertragen, was trotz des nur 16Bit breiten internen Interfaces sehr hohe Transferleistung von bis zu 2.400MB/s ermöglicht. Für die nähere Zukunft sind Taktraten von 800MHz und mehr angekündigt.

Der Grafik-Chip hat die Aufgabe dem Prozessor des Rechners, der CPU, so viel wie möglich von der Rechenleistung abzunehmen, die zur Darstellung der Grafik notwendig ist. Der Grafikprozessor muss also alle ankommenden Daten selbstständig in Bildelemente umsetzen.

Der Grafikspeicher dient ihm dazu, das Bild nach der Zerlegung in Bildpunkte in Pixeln zu speichern, um sie für weitere Aufgaben bereit zu halten.

2.1.3 RAMDAC

Bei Grafikkarten, die ein analoges Signal ausgeben, befindet sich auf der Karte der RAMDAC (Random Access Memory Digital-to-Analog Converter), ein Wandler, der die digitalen Informationen der Grafikkarte in analoge Signale umwandelt, um die Grafik auf dem Monitor anzuzeigen. Er greift auf den Grafikspeicher zu und erhält so die Informationen aus dem „Framebuffer“ (Bezeichnung für den Speicherbereich, in dem das Bild aufgebaut wird).

Die interne RAMDAC Frequenz gibt vor welche Bildwiederholraten bei unterschiedlichen Auflösungen möglich sind.[9]

Abbildung in dieser Leseprobe nicht enthalten

Die zeitliche Verzögerung (auch Rücklaufzeit genannt), die beim Wechseln des Elektronenstrahles von Spalte zu Zeile auftritt, beträgt etwa 32%. Aus diesem Grund muss die Bildwiederholfrequenz mit dem Faktor 1.32 multipliziert werden. Auf diese Weise lässt sich überprüfen, ob die Grafikkarte die gewünschte Bildwiederholfrequenz liefern kann. Wichtig zu bedenken ist jedoch, dass die Bildwiederholfrequenz auch vom Monitor unterstützt werden muss.[10]

Neben der analogen Ausgabe über den RAMDAC ist bei neueren Grafikkarten auch eine digitale Ausgabe über das DVI (Digital Video Interface) möglich. Bei diesem Standard der DDWG (Digital Display Working Group) gibt es drei unterschiedliche Normen:

DVI-A (DVI-Analog) für ein analoges Signal.

DVI-D (DVI-Digital) für digitale Informationen DVI-I (DVI-Integrated)

DVI-I stellte beide Ausgabemöglichkeiten zur Verfügung. Wird ein Monitor eingesetzt, der digitale Informationen benötigt, so ist dieser über DVI-D oder DVI-I anzuschliessen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Die grundlegende Architektur des Grafiksystems

In diesem Fall erhält der Monitor die Information direkt aus dem Grafikspeicher.

2.2 Technologische Entwicklung

In den 70iger Jahren beschränkte sich die Aufgabe von Rechnersystemen auf die Darstellung von Text. Die Darstellung dieses Textes wurde von Bausteinen auf den Motherboards der Microcomputer übernommen.

2.2.1 Die Anfänge

Gegen Ende der 70iger Jahre war es möglich, mit diesen Chips auch erste Grafik zu präsentieren, es wurde jedoch noch nicht von Grafikkarten gesprochen, da die Chips nicht separat auf Erweiterungsplatinen vorhanden waren.

2.2.1.1 Erste Grafikkarte

MGA (Monochrom Graphics Adapter) oder MDA (Monochrom Display Adapter)

Den ersten Standard und damit die erste Karte definierte die Firma „IBM“, die 1981 ihren Personal Computer vorstellte. Diese Karte war ein sogenannter MGA oder MDA, der eine
einfarbige Textdarstellung erlaubte. Der ASCII Zeichensatz war hierzu in einem ROM (Read Only Memory) Baustein vorhanden und konnte auf dem Bildschirm in 80 Spalten und 25 Zeilen angezeigt werden. Die MGA-Karten lieferten zudem nur eine Bildwiederholfrequenz von 50Hz, was keine flimmerfreie Anzeige gewährleistete. Der Grafikspeicher dieser Karte betrug vier Kilobyte.[11]

2.2.1.2 Erster Grafikmodus

HGC (Hercules Graphics Card)

1982 entwickelte die Firma „Hercules“ eine Grafikkarte, die neben dem MGA Textmodus einen Modus besass, um Grafik in einer Auflösung von 720x348 Bildpunkten dar zu stellen. Der HGC- Standard löste den MGA Standard ab 1984 komplett ab. Die Hardware war nicht nur schneller, sondern durch das Aufkommen von sogenannten „Clones“ (Klonen), die zu HGC-Adaptern kompatibel waren, auch günstiger. Anhand der Farbumstellungsfähigkeit einiger Monitore war es möglich, die Anzeige bernsteinfarben, grün, oder weiss zu färben. Die Hercules-Mode Karten lieferten nebenbei eine weit ergonomischere Bildwiederholfrequenz von 60Hz. Der von „Hercules“ erfundene HGC-Modus hielt sich bis 1983 und wurde ab diesem Zeitpunkt noch für eine kurze Zeit von den neueren Karten emuliert. Karten des HGC-Standards waren mit bis zu 64KB Speicher ausgestattet.[12]

2.2.1.3 Erste Farbdarstellung CGA (Color Graphics Adapter)

Der von „IBM“ entwickelte CGA bezog seine Farbmöglichkeiten aus 4 verschiedenen Farb- paletten mit jeweils vier unterschiedlichen Farben. Für eine Auflösung von 320x200 Pixeln stand je eine Palette zur Verfügung das heisst maximal vier Farben. Eine höhere Auflösung von 640x350 Pixeln erlaubte nur einen zweifarbigen Grafikmodus. Für den Textmodus konnten die vier Paletten zu 16 Farben zusammengenommen werden. Die Darstellung mit 16 Farben galt auch für einen Grafikmodus mit einer geringen Auflösung von nur 160x200 Pixeln. Diese Auflösung wurde jedoch kaum genutzt, da das hierzu verwendete Intensity-Bit von vielen Monitoren nicht ausgewertet werden konnte. Das Intensity Bit war ein zusätzliches Bit, welches zur Übergabe eines Helligkeitswertes verwendet wurde. Der Grafikspeicher betrug bis zu 16KB.[13] Bei den CGA-Karten gab es ein interessantes, „Snowing“ genanntes Phänomen. Es trat auf, wenn aus Gründen der Geschwindigkeit Daten direkt in den Bildschirmspeicher geschrieben wurden. „Snowing“ bewirkt auf dem Monitor bei jedem Auffrischen des Bildschirms eine Art Schneegestöber.

EGA (Enhanced Graphics Adapter)

Der EGA-Standard wurde Anfang 1985 von „IBM“ vorgestellt. Mit diesem Standard konnten die Karten im Text- als auch im Grafikmodus mit bis zu 640x350 Pixeln gleichzeitig 16 Farben darstellen. Die Farben wurden hier aus vier Farbpaletten zusammen gestellt. Die Farben setzten sich aus den Grundfarben RGB zusammen, die ein und ausgeschaltet werden konnten sowie der Intensity welche die 2[3] Farben zusätzlich auf hell setzten konnte was 16 Farben ermöglichte. Diese Farben konnte ein Programmierer aus insgesamt 64 Farben bestimmen die von den vier Farbpaletten zur Verfügung gestellt wurden. Eine neue Eigenschaft der EGA-Karten stellte das erstmals auf der Grafikkarte verbaute Bios dar. EGA-Grafikkarten gab es mit 128 bis 256KB Grafikspeicher.[14]

2.2.1.4 „256 Farben“-Darstellung PGD (Professional Graphics Display)

Für professionelle Anwender mit erhöhtem Farbbedarf gab es von „IBM“ im Jahre 1984 das PGD. Dieses Bildschirmsystem bestand aus einem hochauflösenden Monitor und einer speziellen PGA-Grafikkarte (Professional Graphics Adapter), die mit 64KB ROM und 320 kByte RAM (Random Access Memory) ausgerüstet war. Mit diesem System gelang es über angepasste Software erstmals im Bereich grafischer Darstellung so viel zu leisten wie es damals nur mit weit aus komplexeren Anlagen möglich war. Angezeigt wurde die Grafik beim PGA bereits mit 640x480 Pixeln und 256 Farben. Diese konnten aus einer Palette mit 4096 Farben zusammengestellt werden.[15]

VGA (Video Graphics Array)

VGA wurde wieder von „IBM“ eingeführt. Der Standard erschien 1986 und lieferte aus technischen Gründen zum ersten Mal bei PCs ein analoges Signal an den Monitor anstatt wie bisher ein digitales. Es gab keinen anderen Weg, digital den Umfang von 256000 Farben zu übertragen. Hiermit kam es auch zur Einführung des zuvor genanten RAMDACs.

Die Auflösung von 640x480 schafft VGA wie schon EGA nur mit 16 Farben doch bei 320x200 konnten nun 256 Farben dargestellt werden, die durch Palettenoperationen erste Multimedia­Fähigkeiten ermöglichten wie Aus- und Einblenden von Grafiken oder Farbrotationen durch kontinuierliches Durchlaufen der Palettenregister. Der MCGA (Multi Color Graphics Array)- Standard war 100% kompatibel zu VGA und bot die gleichen Möglichkeiten, Auflösungen und Farben. Der Grafikspeicher betrug bei VGA-Karten bereits bis zu 512KB.[16]

SVGA (Super-VGA)

SVGA erschien 1987 und war zu Anfang kein Standard, da mehrere Hersteller verschiedene Lösungen anboten. SVGA erlaubte eine maximale Auflösungen von 800x600 Pixeln und bei 640x480 Pixeln bereits 256 Farben sowie die Anzeige des Maus-Cursors im Grafikmodus. Mehr Speicher erlaubte wenig später die Nutzung von mehr Farben und höheren Auflösungen. Da bei SVGA viele verschiedene Hersteller unterschiedliche Lösungen entwickelten, die sich in Auflösung und Farbtiefe unterschieden, ohne dass sich die Firmen auf einen neuen, festen Standard neben dem von „IBM“ angekündigten XVGA (Extended-VGA) einigen konnte, gründete sich mit der VESA (Video Electronics Standards Association) 1989 ein Komitee, das mit den VBEs (VESA Bios Extensions) diese neuen Standards für Auflösung und Farbtiefe definierte.

Mit den VBEs war ausserdem die Art der Ansteuerung der Grafik-Hardware festgelegt, was den Programmierern die Arbeit des Anpassens von Programmen abnahm. Bevor sich der VESA- Standard durchsetzten konnte und von den Herstellern ins Bios der Grafikkarten integriert wurde, stellte das Komitee ein Programm zur Verfügung, welches nach dem Booten des Rechners als TSR (Terminate and Stay Resident) in den Speicher geladen wurde und die vorhandenen Grafikfähigkeiten feststellte sowie universell nutzbar machte. SVGA-Grafikkarten kamen, zur Zeit der Einführung dieses neuen Standards, mit bis zu einem Megabyte Grafikspeicher aus.[17]

IBM 8514/A

„IBM“ brachte um die selbe Zeit eine eigene Grafikkarte heraus, die „8514/A“, die „IBM“ zunächst nur direkt mit eigener Hardware verkaufte, bevor sie für weitere Mitbewerber zugelassen wurde. Die „8514/A“ unterstütze eine maximale Auflösung von 1024x768 Pixeln bei 256 Farben und beherrschte bereits einen einfachen Befehlssatz zum Zeichnen von Bildelementen.[18]

2.2.1.5 „True Color“-Darstellung

TIGA (Texas Instruments Graphics Architecture)

Der TIGA-Standard wurde von „Texas Instruments“ konzipiert und war speziell für die Verwendung mit „Microsofts“ „Windows“ geschaffen. Zum ersten Mal war mit der TIGA-

Hardware als Zusatzkarte, eine Auflösung von maximal 1280x1024 Pixeln und die Darstellung von 16 Millionen Farben möglich. Die TIGA-Karte war mit diesen Fähigkeiten eine für den CAD- und CAM-Bereich bestimmte Hardware, die teuer war und eine VGA-Karte voraussetzte.[19]

XVGA

Mit XVGA kam 1990 ein weiterer Standard von „IBM“ heraus. XVGA-Karten boten ähnlich den neueren SVGA-Karten mehr Speicher als frühere VGA-Karten und erlaubten dadurch Auflösungen von bis zu 1280x1024 bei 256 Farben. Mit der Einführung der neueren SVGA- und XVGA-Karten waren erstmalig HiColor (15, 16Bit mit 32200 beziehungsweise 65500 Farben) und TrueColor (32Bit mit 16Millionen Farben) für den Home-Bereich zugänglich. Diese Farbtiefen waren zunächst bis zu einer Auflösung von maximal 1024x768 Pixeln verfügbar. Mit Erscheinen der XGA-Grafikkarten erweiterte sich der Grafikspeicher auf bis zu acht Megabyte.[20]

UVGA, SXGA und UXGA

Als weitere Standards etablierten sich UVGA (Ultra-VGA) mit einer Auflösung von 1024x768 Pixeln, SXGA (Super-XGA) mit 1280x1024 Pixeln und UXGA (Ultra-XGA) mit 1600x1200 Pixeln. Diese Auflösungen waren alle je nach Speicherausbau der Grafikkarte in allen Farbtiefen und abwärts kompatibel zu den vorherigen Standards verfügbar.[21]

2.2.2 Windows-Beschleuniger

Die zunehmende Verbreitung von „Microsofts“ „Windows“ als Standard-Betriebssystem auf dem Computermarkt, ermöglichte den Herstellern von Grafikkarten, ihre Produkte mit neuen

Funktionen zu versehen. Diese Funktionen sollten dazu dienen in Windows einen Leistungszuwachs zu erzielen. Windows-Beschleuniger waren Grafikkarten, die speziell auf die schnelle Bildschirmdarstellung unter Windows und den darunter laufenden Anwendungen optimiert wurden. Durch den Einsatz spezieller Routinen und Befehle, die in das ROM der Karte integriert waren, entlasteten diese Karten das Windows-Betriebssystem von bestimmten Aufgaben der Bildschirmausgabe. Auf nicht beschleunigten Systemen übernahm „Windows“ selbst diese Aufgaben, die dadurch wesentlich langsamer ausgeführt wurden.

Typische Vertreter der Windows-Beschleuniger, die von 1990 bis 1995 erschienen, sind Karten mit den Chips der Firmen „Ark“, „Ati“, „Chips“, „Cirrus Logic“, „Matrox“, „NeoMagic“, „Number Nine“, „Oak“, „Orchid“, „S3“, „SiS“, „Trident“, „Tseng Labs“, „Video 7“, „Western Digital“ und vieler anderer. Weiterhin gab es Firmen, die die Grafik-Chips der oben genannten Firmen auf eigene Grafikkarten setzten und in verschiedenen Konfigurationen auf den Markt brachten. Jede neue Entwicklung hatte hauptsächlich eine höhere Geschwindigkeit, bessere Ergonometrie und mehr Farbtiefe bei höheren Auflösungen zu bieten. Um die Geschwindigkeit der Karten nicht durch Komponenten des restliche Systems zu bremsen, entwickelten sich Systemspeicher, Bussysteme und Prozessoren ebenfalls weiter.

2.3 Implementierung von 3D-Funktionalität

1994

1994 kam von „3DLabs“ der erste Chip der „Glint“-Serie heraus, ein ausschliesslich für den professionellen Bereich gedachter 3D-Grafik-Chip, von dem es später als Budget-Variante, den „Gigi“ oder „Game Glint“ gab. Der „Glint 300SX“ gilt als erste 3D-Beschleuniger-Hardware für den PC, er war jedoch nicht als Consumer-3D-Beschleuniger vorgesehen, da er ausschließlich für den professionellen Einsatz entwickelt worden war.[22]

1995

Ein Jahr später erschien von „Microsoft“ die erste Version des „DirectX“ API (Application Programming Interface), „DirectX 1.0“. Sie entstand aus dem „RealityLab“ API der Firma „Rendermorphics Ltd.“, die von „Microsoft“ aufkauft wurde.[23] Durch die Einführung von „DirectX“ wollte „Microsoft“ mit einem Missstand aufräumen, der Entwickler davon abhielt, Windows als Spiele- und Multimediaplattform zu nutzen. Dieser Missstand ergab sich aus der Tatsache, dass unter DOS Programmierer jegliche Hardware, seien es Soundkarten, Grafikkarten oder andere Controller, direkt ansprechen konnten. Die direkte Ansprache garantierte eine optimale Ausnutzung der Hardware. Der Nachteil lag jedoch darin, dass es schwer war, ein Programm aufgrund der unterschiedlichsten Hardware auf allen Systemen richtig laufen zu lassen. Zwar gab es Standards wie den VBE von VESA, dieser legte aber nur grundlegende Fähigkeiten fest. Diese beschränkten sich auf die Auflösung, die Farbtiefe und die Bildwiederholrate. Unter Windows gab es diese Möglichkeit der direkten Ansteuerung nicht, alle Befehle liefen über das Betriebssystem, da der direkte Kontakt des Programms zur Hardware unterbunden wurde. Hierdurch wurde nicht nur ein Optimieren der Leistung erschwert, sondern der gesamte Prozess verlangsamte das System noch zusätzlich. „DirectX“ wurde herausgebracht, um den Entwicklern hardwarenäheres Arbeiten zu erlauben und gleichzeitig einheitliche Befehle zu schaffen, zu denen die Hardware kompatibel sein musste. Es war jedoch in der ersten Version so rudimentär, dass in den folgenden Jahren verschiedene Hersteller ihre eigenen APIs einführten und unterstützten.

Neben „DirectX“ gab es bereits seit 1992 die von „SGI“ im professionellen Bereich etablierte API „OpenGL“.[24] Diese baute „Microsoft“ in „WindowsNT“ ein. Bis heute ist es jedoch trotz mehrerer Versuche seitens „Microsoft“ nicht gelungen „OpenGL“ und „DirectX“ zusammenzubringen.

Im Jahr1995 brachte „Nvidia“, eine kleine Tochtergesellschaft von „SGS Thomson“, den ersten Consumer-3D-Chip auf den Markt. Der „NV1“ war nicht nur ein 3D-Beschleuniger, sondern bot zum Beispiel in Form der von der Firma Diamond entwickelten „Edge 3D“ auch einen TV Ein- und Ausgang sowie eine Sound-Ausgabe mit „Wavetable“-Funktion an. Damit war er eigentlich prädestiniert für den 3D-Enterteinment- und Spiele-Markt.[25]

Leider gab es zwei markante Schwierigkeiten, die verantwortlich waren für das schnelle Verschwinden des „NV1“. Das erste Problem war ein technisches. Die große Vielzahl der unterschiedlichen Funktionen auf einer Karte brachte Fehler mit sich, die in verschiedensten Situationen sporadisch auftraten und nicht mit einfachen Mitteln behoben werden konnten.

Das zweite Problem war, dass der „NV1“ es verstand, „Curved Surfaces“ zu beschleunigen, aber nichts mit Programmen auf Polygonbasis anfangen konnte. Da jedoch die „DirectX“ API von „Microsoft“ auf Polygone aufbaute, ältere Grafik-Chips, wie etwa die von „Matrox“ und „Tseng Labs“, bereits rudimentäre Beschleunigungsfunktionen besassen und auch im professionellen Bereich Polygone beschleunigt wurden, war der polygonbasierte Weg schon beschritten. Niemand hatte Interesse, eine exotische Herangehensweise aufzugreifen, weshalb Programmierer wenig Rücksicht auf den „NV1“ nahmen. Dies bedeutete letztendlich:

Der „NV1“ wurde nicht unterstützt und war damit unattraktiv. Interessant ist der „NV1“ jedoch genau wegen der „Curved Surfaces“. Diese sind heute wieder ein aktuelles Thema.

Neben dem „NV1“ gab es im Laufe des Jahres 1995 Grafik-Chips anderer Hersteller, die ebenfalls über erweiterte Beschleunigungsfunktionen verfügten. 3DLabs brachte die kleine Version des „Glint“, den „Gigi“, auch „Game Glint“ genannt[26] , heraus, der von Creative Labs auf ihrem „3D Blaster“ verwendet wurde. Die Karte beherrschte das Glätten von Texturen über bilineares Filtern sowie die perspektivische Korrektur der Texturen im Raum. Beide Funktionen waren bezeichnend für die erste Generation der 3D-Beschleuniger.

Die Firma „Number Nine“ hatte mit der „Imagine 128“ eine Karte mit gleich lautendem Grafik­Chip auf dem Markt. „Number Nine“ konzentrierte sich jedoch eher auf den professionellen Markt des DTP. Die Grafikkarten waren teuer und boten eine sehr gute 2D-Qualität. Texture Mapping, ein essentielles Feature für den Entertainment-Bereich, fehlte. „Lockheed-Martin“ kündigte ihre „REAL3D“-Karte mit dem selbst entwickelten „R3D/100“ an. Diese Karte wurde nur in geringer Stückzahl auf den Markt gebracht. Eine neue Generation dieser Hardware wurde in Zusammenarbeit mit Intel entwickelt.

1996[27]

„Microsoft“ plante 1996 mit einigen Herstellern das „Talisman“-Projekt. Mit diesem Projekt sollte die zukünftige Entwicklung der 3D-Beschleuniger festgelegt werden. Das Projekt sah vor, die traditionelle Methode des Renderings von 3D-Grafik durch eine intelligentere Lösung zu ersetzten. Für alle beteiligten Hersteller stellte sich das Projekt als nicht realisierbar heraus, da der Zeitaufwand für die dazu erforderliche Entwicklung sich als zu langwierig herausstellte. Außerdem erschien es den Herstellern kostengünstiger und schneller realisierbar, die traditionellen Methoden weiter zu entwickeln. Dieser Umstand verzögerte für „Microsoft“ die Weiterentwicklung der eigenen „DirectX“ API. Das führte dazu, dass einige Hersteller ihre eigene API entwickelten und dem Markt zur Verfügung stellten. Die beiden bekanntesten im Spielebereich waren „GLIDE“ von der Firma „3Dfx Interactive“ und „PowerSGL“ der Firma „VideoLogic“.

„S3“ brachte 1996 den ersten „ViRGE“-Chip heraus, der auf Grund seines guten Preises und der vorhandenen Funktionen von mehreren Herstellern verbaut wurde.

Seine 3D Funktionen beinhalteten das Filtern von Texturen, die perspektivische Korrektur von Texturen, „MIP-Mapping“ und Nebeleffekte. Das Nutzen der verschiedenen 3D-Funktionen verlangsamte jedoch die Geschwindigkeit teilweise so stark, dass Programme mit abgeschalteten Effekten wesentlich schneller waren.

Ähnliche Eigenschaften wie der „ViRGE“-Chip unterstützte „ATI“ auf ihrer Grafikkarte „3D XPRESSION“, die mit dem selbstentwickelten „3D Rage“-Chip ausgestattet war. Beide Chips, der „ViRGE“ und der „3D Rage“, waren die ersten einer Serie, die über einen langen Zeitraum weiterentwickelt wurde.

Etwa zeitgleich kam von „Matrox“ die „Mystique“ genannte Grafikkarte auf den Markt, die den eigenen „MGA-1064SG“-Chip nutzte, um 3D-Grafik in hoher Geschwindigkeit auf den Monitor darzustellen. Einziges Manko war, dass sie im Vergleich zu den anderen Karten weder bilineares Filtern noch „MIP-Mapping“ oder Nebeleffekte unterstützte.

Auch die kurze Zeit später von „Videologic“/ „NEC“/ „PowerVR“ entwickelte „Apocalypse3D“ basierend auf dem „PCX-1“-Chip unterstützte das bilineare Filtern nicht.

Dem „PCX-1“ machte noch ein weiterer Umstand Probleme. Er war ein sogenannter „Tile Based Renderer“, was bedeutet, dass er das finale Bild aus „Tiles“, das heisst einzelnen quadratischen Flächen zusammensetzt. Er sortiert die Geometrie vor, zerlegt die Szene nach den endgültigen Tiles und bearbeitet sie. Der Hauptvorteil dieser Methode ist, dass sie wesentlich weniger Bandbreite benötigt als die „Brute Force“ genannte Methode der Konkurrenz, bei der die gesamte Szene an einem Stück bearbeitet wird. Diesen Vorteil konnte der „PCX-1“ jedoch nur in wenigen Fällen ausnutzen, da „DirectX“ diese Art des Renderings nicht optimal unterstützte. Grafikprobleme und schlechte Performance waren das Resultat. Um zu zeigen, was der Chip bereits zu leisten vermochte, musste ein Programm jedoch nur die „VideoLogic“ eigene „PowerSGL“ API unterstützten.

Von „3Dfx Interactive“ kam, etwa zeitgleich zum „PCX-1“, der „VooDoo“-Chip auf den Markt. Er lieferte zunächst auf Grafikkarten von Herstellern wie „Diamond“ und „Orchid“ selbst mit eingeschaltetem Filtern der Texturen und Nebeleffekten die beste Geschwindigkeit und fand so schnell Verbreitung auf Grafikkarten verschiedener Hersteller. Wie die „PCX-1“-Karte waren auch die „VooDoo“-Karten sogenannte „Add-On Board“-Zusatzkarten, die bereits eine 2D-Karte voraussetzten. Während jedoch der „PCX-1“ seine Daten berechnete und dann über den PCI-Bus in den Speicher der Grafikkarte sendete, nutzten die „Voodoo“-Karten ein „Pass Trough“- oder „Loop Trough“-Kabel. Über dieses Kabel wurde das Bild durchgeschleift und auf dem Monitor angezeigt.

Der Nachteil dieser Methode war eine leichte Anfälligkeit der Bildqualität, da bereits kleine Einflüsse auf das Kabel Störungen auf dem Monitorbild erzeugten und bei hohen Auflösungen die Signalqualität so abnahm, dass das Bild nur noch verschwommen wahrnehmbar war.

Der Vorteil war, dass diese analoge Methode keinen Geschwindigkeitsverlust wie es beim „PCX-1“ der Fall war darstellte. Das System kommunizierte über den PCI-Bus neben der Grafikkarte auch mit der Sound-Karte und anderen im System verbauten Komponenten. Dieser Umstand beeinflusste die Kommunikation zwischen der 2D-Grafikkarte und dem „PCX-1“- Beschleuniger, was sich negativ auf die Rendergeschwindigkeit auswirkte. Zu der Zeit zu der eine Auflösung von 640x480x16 als Standard für Spiele galt, war die Signalqualität für den Nutzer weniger ausschlaggebend als mögliche Verluste in der Geschwindigkeit. Die Tatsache, dass der „PCX-1“ mit seinen 4MB bereits Spieleauflösungen von bis zu 1024x768 beschleunigen konnte, stellte für den Anwender daher keinen wesentlichen Vorteil dar.

Der „Voodoo“-Chip verfolgte eine Strategie aus dem professionellen Bereich. Er bestand aus einem Chip speziell zur Berechnung der Geometrie und einem Chip speziell für Texturberechnungen. Beide Einheiten teilten sich jeweils zwei Megabyte Speicher. Diese zwei Megabyte waren ein weiterer Grund für die Beschränkung auf die zuvor genannte Auflösung von 640x480.

Der „Voodoo“-Chip unterstützte Texturen von 256x256 Pixeln und lief auf Grund der „Pass Through“-Anbindungsart nur im Vollbild Modus (Fullscreen Mode). Genau wie „VideoLogic“ hat auch „3Dfx Interactive“ eine eigenen API entwickelt. Da einige Entwickler ehemalige „SGI“ Mitarbeiter waren ähnelte die API „SGIs“ „OpenGL“. Diese Tatsache machte die „GLIDE“-API den Entwicklern einfach zugänglich und sorgte für ihre weite Verbreitung.

Im selben Jahr brachte „Rendition“, eine Firma, die sich rein der Entwicklung von Consumer- 3D- Karten verschrieben hatte, mit dem „Vérité 1000“ ihr erstes Produkt auf den Markt. Dieses Produkt unterstützte alle vorausgesetzten 3D-Funktionen und war eine 2D/3D-Lösung. Das Fehlen einer eigenen API sowie eine relativ schwache Leistung verhinderte eine weite Vermarktung.

„Number Nine“, stellten ihren „Imagine 2“ vor, der jedoch weiterhin zu wenig Funktionen im 3D- Bereich bot und daher eher für den Einsatz im DTP-Bereich vorgesehen war.

Eine andere Firma, die sich später „Bit Boys Oy“ nannte, arbeitete an einem Chip, der kurz darauf unter dem Namen „Pyramid3D“ lief. Dieser sollte ungesehene 3D-Grafik in Fotoqualität bringen. Die Firma arbeitete hierzu mit Bildern, die mittels eines Software-Emulators gerendert wurden. Dies bedeutete mit dem Nachbau der Chip-Architektur in Software. Eine Serienfertigung der „Pyramid3D“-Hardware durch die Firma „TriTech“ kam nicht zur Ausführung. Hintergrund dieser Entwicklung war, dass trotz überlegener Grafikqualität die Geschwindigkeit dieses Chips mit der aktueller Mitbewerber nicht konkurrenzfähig war.

Zusammenfassend ist festzustellen, dass mit dem Auftreten der „VooDoo“-Karten sich ein Wandel im Markt vollzogen hatte. Die 3D-Grafik war nicht länger dem professionellen Anwender vorbehalten sondern wurde dem Consumer-Bereich zugänglich gemacht. Spezielle APIs sicherten konstante Frame-Raten im Bereich von 30fps. Zwei bis vier Megabyte Speicher auf Grafikkarten wurden zum Standard. Die Funktionen zur Darstellungsverbesserung beinhalteten die perspektivische Korrektur von Texturen, bilineares Filtern, MIP-Mapping und Nebeleffekte. Inzwischen hatte sich „DirectX“ zur Version 2.0 und etwas später zu Version 3.0 entwickelt.

[...]


[1] Vgl. Ars Technica: Understanding Bandwidth and Latency, http://arstechnica.com/paedia/b/bandwidth- latency/bandwidth-latency-1.html, abgerufen am 2004-07-23

[2] Vgl. Quatech: ISA, http://www.quatech.com/support/comm-over-isa.php, abgerufen am 2004-07-12

[3] Vgl. Quatech: MCA, http://www.quatech.com/support/comm-over-mca.php, abgerufen am 2004-07-12

[4] Vgl. Computer Hope: EISA, http://www.computerhope.com/help/bus.htm#04, abgerufen am 2004-07-23

[5] Vgl. Computer Hope: VLB, http://www.computerhope.com/help/bus.htm#05, abgerufen am 2004-07-23

[6] Vgl. Quatech: PCI, http://www.quatech.com/support/comm-over-pci.php, abgerufen am 2004-07-12

[7] Vgl. Intel: AGP, http://www.intel.com/technology/agp/info.htm, abgerufen am 2004-07-12

und XFXforce: AGP Article, http://www.xfxforce.com/articles/pdf/agp%203%20article.pdf, abgerufen am 2004-07-12

[8] Zu diesem Kapitel vgl.:

2Inspire.com: Memory FAQ, http://www.2-inspire.com/articles/memory_FAQs.html, abgerufen am 2004-07-12

Ars Technica: RAM Guide, http://arstechnica.com/paedia/r/ram_guide/ram_guide.part1-2.html, abgerufen am 2004-07-12

Dewassoc.com: Memory - Evolution or Revolution, http://www.dewassoc.com/performance/memory/intro.htm, abgerufen am 2004-07-12

EpiTech.net: Memory, http://www.epitech.net/archi/voir_fiche.php7idM9, abgerufen am 2004-07-12

Hardwaregrundlagen. de : Arbeitsspeicher, http ://www.hardwaregrundlagen.de/oben08.htm, abgerufen am 2004-07-12

Kingston: Ultimate Memory Guide, http://www.kingston.com/tools/umg/umg-de.pdf, abgerufen am 2004-07-12

MoSys: 1stRAM, http://www.mosysinc.com/files/pdf/1tsram5.pdf, abgerufen am 2004-07-12

PCTech Guide: System Memory, http://www.pctechguide.com/03memory.htm, abgerufen am 2004-07-12

Samsung: Graphics Memory, http://www.samsung.com/Products/Semiconductor/GraphicsMemory, abgerufen am 2004-07-12

Tecchannel: Speichertechnologien im Vergleich, http://www.tecchannel.de/hardware/1147/9.html, abgerufen am 2004-07-12

[9] Vgl. Epson: S1D13505 Embedded RAMDAC LCD/CRT Controller- Hardware Functional Specification, http://www.erd.epson.com/vdc/pdf/1355/x23aa001.pdf, 2002-02-01, abgerufen am 2004-07-23

und Matrox: The Anatomy of a Graphics Card, http://www.matrox.com/mga/theguide/anatomy/home.cfm, abgerufen am 2004-07-23

und MatroX Files: RAMDAC guide, http://grafi.ii.pw.edu.pl/gbm/matrox/ramdac.html, 1999-01-29, abgerufen am 2004-06-15

und Webopedia.com: RAMDAC, http://www.webopedia.com/TERM/R/RAMDAC.html, abgerufen am 2004-07-23

[10] Vgl. Brix.de: Digitale Bilder für den Kopf, http://www.brix.de/computer/grafikkarte.html, 2002-06-10, abgerufen am 2004-07-23

[11] Vgl. BUG Club: What is MDA?, http://bugclub.org/beginners/hardware/mda.html, abgerufen am 2004-04-20

[12] Vgl. BUG Club: What is HGC?, http://bugclub.org/beginners/hardware/hgc.html, abgerufen am 2004-04-20

[13] Vgl. BUG Club: What is CGA?, http://bugclub.org/beginners/hardware/cga.html, abgerufen am 2004-04-20

[14] Vgl. BUG Club: What is EGA?, http://bugclub.org/beginners/hardware/ega.html, abgerufen am 2004-04-20

[15] Vgl. IBM: A professional graphics controller, http://www.research.ibm.com/journal/sj/241/ibmsj2401D.pdf, abgerufen am 2004-04-20

[16] Vgl. BUG Club: What is VGA?, http://bugclub.org/beginners/hardware/vga.html, abgerufen am 2004-04-20

[17] Vgl. BUG Club: What is SVGA?, http://bugclub.org/beginners/hardware/svga.html, abgerufen am 2004-04-20

und VESA: VESA VBE/AI Standard Summary, http://www.vesa.org/summary/sumvbeai.htm, 1994-02-11, abgerufen am 2004-04-20

und VESA: VESA VBE/CORE Standard Summary, http://www.vesa.org/summary/sumvbecore.htm, 1998-08-16, abgerufen am 2004-04-20

[18] Vgl. NT World: IBM 8514/A, http://homepage.ntlworld.com/tim_n_clarke/video/8514A.htm, abgerufen am 2004-04-20

[19] Vgl. Texas Instruments: TMS34010, http://focus.ti.com/docs/prod/folders/print/tms34010.html, abgerufen am 2004-04-20

[20] Vgl. BUG Club: What is XGA?, http://bugclub.org/beginners/hardware/xga.html, abgerufen am 2004-04-20

[21] Vgl. BUG Club: PC Graphics standard, http://bugdub.org/beginners/hardware/GraphicsStandard.html, abgerufen am 2004-04-20

und Webopedia.com: SXGA, http://www.webopedia.com/TERM/U/SXGA.html, abgerufen am 2004-04-20 und Webopedia.com: UXGA, http://www.webopedia.com/TERM/U/UXGA.html, abgerufen am 2004-04-20

[22] Vgl. 3DLabs: Challanges & Opportunities for 3D Graphics on the PC,

http://www.ibiblio.org/hwws/previous/www_1999/presentations/keynote.pdf, 1999, abgerufen am 2004-04-20

und Byte.com: Is there a GLINT in your future?, http://www.byte.com/art/9510/sec12/art1.htm, 1995, abgerufen am 2004-04-20

[23] Vgl. 3DEngines.de: API: Own with 3D HW-support, http://www.3dengines.de/api_own.html, abgerufen am 2004-04-20

und Fact-Index.com: Fahrenheit graphics API, http://www.fact-index.com/f/fa/fahrenheit_graphics_api.html, abgerufen am 2004-04-20

[24] Vgl. SGI: OpenGL and X, http://www.sgi.com/software/opengl/glandx/intro/intro.html, 1994-01-26, abgerufen am 2004-04-20

[25] Vgl. Hardware.fr: Les chips 3D en 1995-1996, http://www.hardware.fr/articles/420/page1.html, 2002-04-24, abgerufen am 2004-04-20

und STMicroelectronics: NVIDIA Corporation and SGS-THOMSON announce the NV1 and STG2000 Multimedia Accelerators, http://www.st.com/stonline/press/news/year1996/496xp.htm, 1995-05-22, abgerufen am 2004-04-20

[26] Vgl. 3Daniel: Chipset 3D, http://clonline.infoservizi.it/daniel/3d02.html, 1998-07-14, abgerufen am 2004-04-20

[27] Zu diesem Abschnitt vgl. :

Jennis Meyer-Spradow: Naturtalent, C't, Heft 12/96, 1996, S.52f

Manfred Bertuch: Die Spezialisten kommen, C't, Heft 11/96, 1996, S.174ff

PC Player, HF: Schlechte Karten, PC Player, Ausgabe 10/96, 1996, S.156ff

PC Player, HF: Augenschmaus, PC Player, Ausgabe 11/96, 1996, S.16f PC-Direkt, OA: Grafik-Special,

PC-Direkt, Ausgabe 12/96,1996, S.126ff

Tom's HWG: Graphics Card Articles 1996 and 1997,

http://www20.graphics.tomshardware.com/graphic/1997.html, 1996/1997, abgerufen am 2004-04-20

Ende der Leseprobe aus 129 Seiten

Details

Titel
Untersuchung der Echtzeitfähigkeit von Budget-Grafikkarten
Hochschule
The German Film School Elstal
Note
1,3
Autor
Jahr
2004
Seiten
129
Katalognummer
V28550
ISBN (eBook)
9783638302982
ISBN (Buch)
9783638702805
Dateigröße
3252 KB
Sprache
Deutsch
Schlagworte
Untersuchung, Echtzeitfähigkeit, Budget-Grafikkarten
Arbeit zitieren
Ulf Eickmann (Autor:in), 2004, Untersuchung der Echtzeitfähigkeit von Budget-Grafikkarten, München, GRIN Verlag, https://www.grin.com/document/28550

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Untersuchung der Echtzeitfähigkeit von Budget-Grafikkarten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden