Lau Homepage |  Unterricht |  Referate,Schülerarbeiten


Gymnasium Laurentianum
[  Referat:   Grafikkarten  ]



3D Power bis zum Anschlag

von David Fekete





   Anfang der Seite  |  Kapitel 1  |  Kapitel 2  |  Kapitel 3  |  Ende der Seite   


Die Geschichte der Grafikkarte

Nach einem Artikel von Volker Schauff in 3D Center.de



Monochrom-Grafikkarten

Es hat alles mit den monochromen MGA-Karten begonnen, die in alten IBM-PCs eingebaut waren. Diese Karten waren nur in der Lage Text darstellen. Die bekannteste Weiterentwicklung waren die HGC-Adapter der Firma Hercules. Neben der Textdarstellung wurde noch ein Grafikmodus mit einer Auflösung von 720x348 Pixeln beherrscht. Dabei wurden 2 Farben, "An" und "Aus" beherrscht. "Aus" ist schwarz, "An" je nach Monitor gr&ueml;n, bernstein (Amber) oder bei Luxusmodellen papierweiß. Dieser Standard wurde schnell wieder vergessen als die nächste Generation aufkam, Emulationen für den Hercules-Modus hatten spätere Grafikkarten immer seltener.



Die erste Farbgeneration: CGA

CGA steht für Color Graphics Adapter. Die Karte beherrschte einen 4-Farben Modus (mit 4 Paletten) mit 320x200 Pixeln oder den 2-Farben Modus (Schwarz-Weiß) bei 640x350 Pixeln. Einige CGA-Karten waren ebenfalls noch kompatibel zum Hercules Mochchrom-Modus.

Die CGA-Karte konnte auch einen 160x100 Modus mit 16 Farben darstellen, davon wurde jedoch nur selten Gebrauch gemacht. Die Auflösung war dafür viel zu gering und viele Monitore hatten Probleme diese 16 Farben darzustellen, da sie das Intensity-Bit nicht verarbeiten konnten.


CGA Color Graphics Adapter: ISA 8 CGA DTK Colorcard


Weiterentwicklung: EGA

Der Enhanced Graphics Adapter beherrschte bereits 16 Farben mit 320x200 oder bei 640x350 Pixeln. Die Karte war voll abwärtskompatibel zum CGA-Standard. Eine Unterstützung oder Emulation für den Hercules-Modus wurde immer seltener bis sie gar nicht mehr vorhanden war. EGA-Karten benutzten zum ersten mal ein eigenes Grafikkarten-BIOS. Die Vorgänger-Generationen wurden noch vom BIOS des PCs gesteuert.

Die Übertragung der Farben erfolgte im Format R-G-B+Intensity. Durch De- und Aktivieren der Farben Rot, Grün und Blau konnten 23 = 8 Farben kombiniert werden. Diese konnten noch per Intensity auf Hell geschaltet werden, wodurch sich 16 Farben ergaben.

Bislang übertrugen alle Karten die Bilder im übrigen rein digital. Der Anschluss war dabei ein 9-poliger Sub-D Stecker.



Richtig bunt: VGA und MCGA

Die Ur-VGA Karte (VGA = Video Graphics Array) und die technisch 100% kompatible MCGA (Multi Color Graphics Array) waren, wie die EGA-Karten mit 64 KB RAM bestückt. Bei einer Auflösung von 320x200 Pixeln konnte eine Farbtiefe von 256 definierbaren Farben aus einer Palette von ungefähr 250000 Farben dargestellt werden.

Durch Palettenoperationen wiesen die VGA-Karten bis dahin ungeahnte Multimedia-Fähigkeiten auf. Zum Beispiel konnte man ein Bild nur durch Umrechnung der 3x256 Palettenregister (Rot, Grün, Blau auf 256 Farben) aus- und einblenden - schon auf damaligen Rechnern recht flott. Auch Farbrollen war möglich, man positionierte einfach alle Farben, die im Bild nebeneinander lagen, auch in der Palette nebeneinander und ließ bestimmte Farben der Palettenregister einfach durchlaufen. Man muss sich das vorstellen wie eine Schlange, bei der man sich, wenn man vorn raus geht, direkt wieder Hinten anstellt. Wollte man also Farben 10-15 rollen lassen, musste man nur die Farbe aus Register 10 merken, 11-15 um eins nach Vorne schieben und die gemerkte Zahl aus Register 10 nach 15 schreiben.

Im hochauflösenden Modus bei 640x480 Pixeln war dies nicht mehr möglich, da waren wieder nur die üblichen 16 EGA-Farben möglich. Da man damals keine Möglichkeit sah, ein digitales Protokoll zu erstellen, dass die VGA-Farben (über 256000) überträgt, wurden analoge Monitore gebaut. Diese hatten die Möglichkeit, praktisch unbegrenzt viele Farben darzustellen, im Gegensatz zu den Karten welche die Bilder lieferten.



Hochauflösend: S-VGA

Die Super-VGA Karten sind erweiterte VGA-Karten mit mehr RAM (256 KB). Es wurden auch Auflösung von bis zu 800x600 Pixeln unterstützt. Die Anzeige von 256 Farben, rückte auf 640x480 hoch. VGA und alle Nachfolger sind EGA und CGA kompatibel.



Noch besser: X-VGA

E(x)tended-VGA Karten hatten 512 KB RAM oder noch mehr. Die X-VGA Auflösung ist 1024x768, aber auch die Karten älterer Generation kamen teilweise schon über 1024x768. Neben dem 256 Farben Modus wurde auch der High Color Modus mit 16 Bit (64000 Farben, palettenlos, teilweise auch mit 15 Bit und nur 32000 Farben) und der True Color Modus mit 24 Bit und somit 16 Mio. Farben eingeführt.

Typische Chip-Vertreter dieser Generation sind die Grafik-Chips ET3000 und ET4000 von Tseng Labs. Während der ET3000 noch als S-VGA mit 256 KB RAM und X-VGA mit 512 KB RAM bestückt war,tauchten ET4000 Karten mit dann zwischen 512 KB und damals unvorstellbaren 2 MB auf. Teilweise gab es auf den ET4000 Karten solche Kuriositäten, dass man nur 256 Farben darstellen konnte, bis der RAM-DAC (Digital-Analog-Converter, der die digitalen Speicherdaten zum analogen Monitorsignal umwandelte) gegen einen anderen getauscht wurde, der dann High-Color (65536 Farben) darstellen konnte. All das war seinerzeit möglich, da die RAMDACs nicht fest verdrahtet, sondern gesockelt waren.

Des weiteren gab es ET3000 Modelle, die VGA-Ausgang und EGA-Ausgang anboten, allerdings dann auch nur mit den EGA-Modi. Der ET4000 beherrscht übrigens auch schon in Ansätzen Befehle der nächsten Grafikkarten-Generation (die der Windows-Beschleuniger), allerdings ohne merklichen Effekt, denn oft wurden die wenigen Befehle gar nicht eingesetzt oder waren auch nicht schneller als eine Software-Lösung.

Bei den hochauflösenden Modi und denen mit mehr als 256 Farben gab es den reinsten Wildwuchs in Sachen Standards. Das Grafikkarten-Standardisierungs-Komitee VESA setzte daher die VBE, die VESA BIOS Extensions fest, mit denen man wieder standardisiert auf diese Modi zugreifen konnte, wenn auch nicht ganz so schnell (der übliche Weg war über das BIOS statt über direkte Chip-Programmierung).



Schneller: Windows-Beschleuniger (1)

Bis dahin besaßen Grafikkarten keinerlei Intelligenz, sie waren gewissermaßen alle "dumm". Der Begriff nannte sich Frame-Buffer, die Karten taten nichts anderes, als einfach nur stur vorberechnete Pixeldaten entgegenzunehmen. Windows-Beschleuniger konnten aber auch Befehle abarbeiten wie "Viereck malen" etc.

Typische Vertreter der Windows-Beschleuniger sind Karten mit den Chips von S3. Die S3 "Porsche-Serie" (Spitzname wegen verblüffender Namens-übereinstimmung wie 911, 924 oder 968) mit VRAM (intelligenter RAM der gleichzeitig Zugriffe des Grafikchips und des RAMDAC erlaubte) und deren kleine Brüder mit den langsameren DRAMs (bei denen nur eins von beiden ging, daher war die gleiche Auflösung bei 60Hz auch schneller als bei 80) die anstatt der Porsche-9xx vorn eine 8 hatten (z.B. 811 statt 911), sorgten für Aufsehen, da sie IO-Adressen der Schnittstellen COM3 und COM4 belegten und so mancher Kommunikationsrechner mit 4 Modems plötzlich nicht mehr lief.


Windows Beschleuniger: S3 968 2 MB

Aufgrund der immer höheren nötigen Bandbreiten wurden neue Bus-Systeme vorgestellt: VESA erfand den Vesa Local Bus, VLB. Dieser war anfangs schneller als der parallel von Intel vorgestellte PCI. Ähnlich wie PCI konnte auch VLB nicht nur Grafikkarten aufnehmen, sondern auch andere Geräte, bei denen es auf Geschwindigkeit ankam, wie Festplattencontroller (IDE oder SCSI). Das Problem von VLB war die direkte Anbindung an den Frontside-Bus der CPU. Lief der Bus bei einem 486DX2-50 (2*25MHz) noch mit 25MHz und somit elendig lahm im Vergleich zu PCI, lief er mit einem 486DX-50 gleich mit 50MHz. Das war zwar definiert (zumindest im Vesa 2.0, den Vesa 1 Karten wurde es da schon mal etwas warm), war aber damals zu schnell, um zuverlässig zu sein (aber PCI sah dagegen alt aus).



Schneller: Windows-Beschleuniger (2)

Die besten Karten aus dieser Zeit stammten von Video7 (schnell, zuverlässig, guter Service), Diamond (noch schneller weil gnadenlos übertaktet, aber nicht zu zuverlässig) und Elsa (ebenfalls sehr ausgewogen).

Im Laufe der Zeit fusionierte Video7 mit dem Software-Spezialisten Spea zu Spea/V7, wurde später von Diamond geschluckt und abgeschafft, nachdem Diamond die interessanten Technologien, z.B. der Spea/V7 Fire übernahm. Im Jahre 2000 tauchte noch einmal eine Firma namens Video7, ein PC-Hersteller, welcher sehr guten und billigen Monitoren für Aufsehen sorgte, auf, aber sie hat mit Spea/V7 nichts zu tun. Nur der Name und das leicht modifizierte V7 Logo wurden übernommen, und zwar vom Großhändler Ingram Macrotron, der unter diesem Namen jetzt Rechner und Monitore verkaufen (die vorher unter dem Namen Macom liefen).

Auch nicht schlecht dabei waren ATi und Matrox, beide mit selbst entwickelten Chips. Etwas später wurde es dann Zeit für ein Comeback von Hercules, die Karten mit Chips von ITT und S3 herausbrachten. Und später den absoluten Knaller, die Dynamite 128 mit dem Tseng ET6000, dem ersten 128 Bit Grafikchip. Diese Karte bügelte sogar die doppelt so teure Matrox Millenium (bis dahin die unangefochtene Spitze) noch problemlos.

Außerdem existierte für den ET6000 ein optionales Videoupgrade-Modul, dessen zentraler Chip auf den Namen VPR6000 hörte. Von diesem Modul hat man allerdings nie viel gehört. Vermutlich hätte es sich auch mit großem Marketing-Aufwand nur schlecht verkauft, der die Pfostensteckerreihe (50-pol, ähnlich SCSI) auf den meisten Karten (wie den erfolgreichen Hercules Dynamite 128 und Videologic Grafixstar600) zwar in Form von Lötpunkten vorhanden, jedoch nicht bestückt war.



Was für Spieler: 3D-Beschleuniger

Es begab sich, dass sich eine kleine Chipschmiede, eine Tochtergesellschaft von SGS Thomson (bekannt durch die CPUs der Tochterfirma Cyrix), namens nVidia den ersten 3D-Chip auf den Markt brachte. Der NV1 war wahrlich die "eierlegende Wollmilchsau" unter den Chips. Eine PCI-Karte mit dem NV1 wie die Diamond Edge 3D beherbergte neben einem VGA-Modul mit Windows- und 3D-Beschleunigung noch einen TV Ein- und Ausgang und eine Soundkarte, komplett mit Wavetable. Die Karte konnte sich dennoch nicht durchsetzen, da die Technik nicht richtig funkionierte und zweitens die Programmierer mit der Art der 3D-Beschleunigung des NV1, "Curved Surfaces", damals nicht viel anfangen konnten.



Jetzt richtig: 3D-Beschleuniger, die Zweite

Aber nicht als Grafikkarte - sondern als Addon. Das waren die legendären Voodoo-Chips von 3dfx. Man steckte sie als Zusatzkarte hinzu (bekanntestes Beispiel die Diamond Monster, bester Vertreter dieser Karte die Miro Hiscore mit TV-Out sowie gleich 6 statt 4MB). Diese rechnete dann 3D-Grafiken aus, und zwar so, dass die Programmierer da auch was mit anfangen konnten - also auf Polygon-Basis.

Und sofort sprangen alle auf den 3D-Zug auf - und einige der Hersteller bauten damit beim Käufer ein Mißtrauen für ihre Marke auf, welches noch bis heute spürbar ist. Denn mit dem beginnenden Erfolg der ersten 3D-Karten Marke Voodoo ist 3D plötzlich in - und dieses Etikett wird fortan auf jeden Grafikchip geklebt, welcher halbwegs modern ist. Dass diese "umgelabelten" Karten elementarste 3D-Funktionen vermissen lassen und eher 3D-Bremsen sind, verschweigen die Hersteller. Berühmt-berüchtigte Beispiele für 3D-"Verhinderer" sind die Virge-Serie vom S3 und die Rage-Serie von ATi.

3dfx´ Problem in der Anfangszeit war aber die Tatsache, dass eine zusätzliche Karte nur für 3D für viele noch unerklärlich war und der Masse auch einfach schlicht unbekannt blieb. Erste Versuche von 3dfx mit Stand-Alone-Karten (Voodoo Rush - ein ver-schlimm-besserter Voodoo - zusammen mit einem 2D-Chip, zuerst ein Avance Logic AT3D, später ein Macronix-Chip) scheiterten aber, da die Karten sowohl unter 2D als auch unter 3D langsamer waren als eine gute 2D+Voodoo Kombi - und auch kaum billiger.

Der NV3 von nVidia, besser bekannt als Riva128, hat 3dfx dann erste Probleme bereitet. Eine funktionierende 2D-3D Kombination, auch noch mit TV-In und Out Funktion (wie sich später herausstellte, sogar zum Anschauen von Pay-TV geeignet) und das auf dem 3D-Leistungsniveau einer Voodoo (obwohl die Voodoo immer noch die schöneren Bilder machte).

Und obgleich 3dfx massiv nachlegte (Voodoo2 mit der Option, dass gleich zwei Karten per SLI rechnen) wurde aus den Problemen mit dem Erscheinen von nVidias Riva TNT wohl eine gewaltige Katastrophe für 3Dfx. Zwar war der TNT nicht schneller als zwei mit SLI verbundene Voodoo2. Im Gegenteil, aber er renderte einfach die schöneren Bilder dank 32 Bit. Und die Leistung war ebenfalls ausreichend. 3dfx übernahm, um die Generation Voodoo3 nur noch exklusiv mit eigenen Grafikboards herstellen zu können, dann den Grafikkartenspezialisten STB Systems.


Windows Beschleuniger: 3Dfx Voodoo2 12 MB Tv-Out

Der Rest ist mittlerweile auch schon wieder Geschichte...



Untergänge und Comebacks von Legenden

S3: Der ehemalige 2D-Leader wurde im Laufe der Zeit nach unten durchgereicht und endete im Besitz von Diamond in Kooperation mit VIA unter dem neuen Namen SonicBlue. Nach erfolglosen Versuchen an die 3D-Welle anzuknüpfen (ViRGE kaum kompatibel und zu langsam, Savage3D mit Anzeigefehlern und Savage4 zu langsam) wurde S3 von Diamond übernommen. Hintergrund: Diamond wollte ähnlich 3dfx/STB mit der Voodoo3 eine eigene Karte mit eigenem Chip im Exklusivvertrieb auf den Markt bringen. Das Konzept war gut, der Chip nicht. Der Savage2000 war voll von Bugs und trotz (oder eben wegen der extrem fehlerhaften) T&L-Einheit furchtbar langsam. Das Anfang vom Ende von S3, die jetzt in einem Joint Venture mit Chipsatz-Spezialisten VIA unter dem neuen Namen SonicBlue an Chipsatz-integrierten Grafiklösungen für Low-Cost und Mobile Rechner arbeiten.

Tseng Labs: Trotz des erfolgreichen und superschnellen ET6000 untergegangen. Grund: Der ET6000 war nur ein 2D-Chip, alle Welt wollte aber inzwischen 3D. Der Versuch in Kooperation mit Videologic mittels einer Kombikarte, die einen aufgebohrten ET6000 namens ET6100 sowie einen Videologic PowerVR enthielt, auch in den 3D-Markt einzusteigen blieb erfolglos. Die Apocalypse 5D war einfach zu langsam und funktionierte aufgrund der exotischen Technik (enthielt quasi 2 PCI Karten, die mit einer PCI-to-PCI Bridge intern verbunden wurden) nicht in jedem Mainboard.

3dfx und STB Systems: Durch den Kauf der für hochwertige Grafikkarten bekannten Firma STB (10 Jahre Garantie zeugen von großer überzeugung von den eigenen Produkten) wollte 3dfx in den direkten Grafikkartenmarkt einsteigen. Das Konzept, die Voodoo3 exklusiv aus eigener Herstellung (in den Fertigungsstraßen von STB) zu vertreiben, ging zuerst auf. Doch der technische Rückstand auf nVidia, ATi und Matrox war einfach zu groß, irgendwann wurden immer weniger 3dfx Produkte gekauft und die Firma fuhr massive Verluste ein. Der Versuch, Hauptkonkurrent nVidia durch Klagen wegen Patentverletzungen auszuschalten, war wohl kein so guter - nVidia kaufte die inzwischen recht marode Firma mitsamt der Patente einfach auf.

Spea und Video7: Mit der Fusion des Grafikkartenspezialisten Video7 und der hochrenommierten Softwareschmiede Spea begann eigentlich eine neue ära hochwertiger Grafikkarten. Diese war leider auch recht schnell zu Ende, denn die Grafikkarten waren so gut, daß Diamond großes Interesse an der Firma bekam. Nach dieser Elefantenhochzeit waren einige Produktlinien doppelt, so ging schon ein Großteil der Spea/V7 Karten schnell unter. Traditionsreiche "Reste" von Spea/V7 liefen dann irgendwann unter dem Namen Diamond, zum Beispiel die Fire GL. Außerdem gibt es noch überreste von SPEA/V7 in der kurz vor der übernahme durch Diamond gegründeten Firma SP3D Chip Designs (inzwischen 100%ige Philips Tochter). Der Name Video7 erlebt dennoch derzeit ein Revival, der Distributor Ingram Macrotron sicherte sich die Reche an Namen und Logo (das noch etwas modernisiert wurde) der seit langem nicht mehr existierenden Firma und vertreibt unter diesem Namen jetzt recht hochwertige Monitore (vorher hieß Macrotrons Monitor-Eigenmarke Macom, vergleichbar ist das mit Maxdata und Belinea/Monxx).

Hercules: Auf-Ab-Auf-Ab-Auf. So könnte man die Geschichte von Hercules sehen. Nach den unter Computer-Veteranen immer noch bekannten Hercules Grafikkarten aus der Monochrom-Zeit kam lange nichts mehr. Plötzlich mitte der 90er ein Comeback, wieder mit sehr guten Karten (besonders der Dynamite 128 mit Tsengs ET6000 Chip). Aufgrund einiger Fehler ging es dann wieder kontinuierlich bergab, bis der französische Soundkartenspezialist Guillemot Hercules übernahm. Seitdem steht Hercules mal wieder für schnelle und zuverlässige Grafikkarten.



Und welche Firmen bewegen sich im Hintergrund?

Ein paar ehemalige Silicon Graphics Mitarbeiter arbeiten unter dem Firmennamen Bitboys an einem Chip, der ursprünglich Glaze3D heißen sollte. Highend-Grafikkartenspezialist Evens&Sutherland hatte jedoch Rechte an diesem Namen und erwirkte ein Verbot dieser Bezeichnung. Aufgrund von Problemen mit der Fertigung wurde die Herstellung des Chips immer wieder verzögert, der technische Stand jedoch auf alles verfügbare angepasst. Somit stellt der - derzeit namenlose - Chip, so er denn endlich kommen sollte, sicher eine starke Alternative dar.

Kurz vor der Übername durch Diamond gründete Spea/Video7 noch eine Firma SP3D Chip Design, die mit dem Envision2000 eine skalierbare Hochleistungsgrafiklösung entwickeln wollte. Vom Lowcost-System mit jeweils nur einer Recheneinheit bis hin zur Highend-Grafiklösung. Leider hörte man hier nicht mehr viel davon.



Rückblick: Die wichtigsten Meilensteine in der Geschichte der Grafikkarte

1982 Hercules stellt HGC vor und kann damit erstmals Grafik auf dem PC darstellen.
1983 Der PC wird farbig mit CGA.
1985 Noch ein wenig mehr Farbe verspricht die EGA-Grafikkarte.
1988 Der PC wird richtig farbig, dank der VGA-Karte - ab sofort arbeiten die Karten mit analogem Signal.
1989 Immer höhere Auflösungen und Farbanzahlen sind möglich. Endlich bringt das VESA-Komitee mit den VBE BIOS-Erweiterungen einen Standard in den durch das Wettrüsten entstandenen Wildwuchs.
1992 Der Bildaufbau wird durch Windows-Beschleuniger-Chips erstmals beschleunigt.
1993 Zwei neue Bus-Systeme, der VESA Local Bus und Intels PCI umgehen den ISA-Flaschenhals und machen Grafikkarten plötzlich massiv schneller.
1995 nVidia stellt mit dem NV1 den ersten 3D-Beschleuniger vor.
1996 3dfx stellt mit dem Voodoo Graphics den ersten wirklich brauchbaren 3D-Beschleuniger vor.
1997 Intel definiert den AGP-Bus und stellt somit noch mehr Bandbreite speziell für den 3D-Bereich zur Verfügung.
1999 nVidia bringt mit der GeForce die erste Grafikkarte mit Transform & Lighting Engine im Consumer-Bereich.

AGP Asus V7100T (nVidia GeForce2 MX 32MB TV-Out)

2000 Videologic stellt mit dem KYRO die erste Karte mit problemlos funktionierenden und leistungsfähigem Deferred/Tile-Based Rendering vor.




   Anfang der Seite  |  Kapitel 1  |  Kapitel 2  |  Kapitel 3  |  Ende der Seite   



Überblick einiger moderner 3D Techniken



FSAA

FSAA, Fullscreen Anti-Aliasing (Vollbild Kantenglättung) ist eine von 3Dfx entwickelte Technik, um den "Treppen-Effekt" in 3D-Spielen auszubügeln und so glatte Kanten, selbst bei Auflösungen unter 1024x768 zu ermöglichen. Moderne Grafikkarten beherrschen bis zu 8xFSAA, wo bei das Bild achtmal gefiltert wird. Dies verbraucht aber sehr viel Rechenzeit. Daher werden meisten 1x-4xFSAA als Kompromiss aus Leistung und Geschwindigkeit verwendet.



FSAA - Qualitätsunterschied zwischen FSAA und keinem FSAA

Dieses Bild soll die Qualitätssteigerung durch Verwendung von FSAA deutlich machen. Links ist der Bildausschnitt mit 9-fachem FSAA und rechts ohne FSAA. Ohne FSAA (Bild rechts) sind besonders an dem grauen Waffenaufsatz deutlich "Treppeneffekte" zu sehen, die mit FSAA (Bild links) kaum oder gar nicht zu sehen sind.

Die Bilder wurden vom "Game 1 High Detail" von Madonion.com's 3DMark(r) 2001 SE entnommen.


FSAA Demonstration


T-Buffer

T-Buffer, diese Technik wurde ebenfalls von 3Dfx entwickelt. Sie stellt realistisch einen Unschärfe-Effekte dar.



Bump Mapping

Bump Mapping Effekte sorgen dafür, dass Tiefen und Höhen Effekte in Texturen dargestellt werden ("Oberflächeneffekte"). In modernen Bump Mapping-Techniken sind auch Effekte wie Transparenz oder Glanz vorhanden



Anisotrophischer Filter

Der Anisotropische Filter, kurz AF, sorgt dafür, dass Kanten in der Entfernung ausgeglichen werden.Bei den meisten Grafikarten erfolgt dieser Prozess auf der Trilinearen Ebene, auf einigen (z.B. auf ATI Radeon 8500) auf Bi-Linearer Ebene.Die Trilineare ebene sieht besser aus, als die Bilineare, kostet aber mehr Leistung. Heutige Karten (wie nVidia GeForce 4 Ti oder ATI Radeon 9700 Pro) können AF bis zum vierfachen Level (mit Unterstützung einer starken CPU) in angemessener Geschwindigkeit berechnen, selbst wenn es mit FSAA komniniert wird. Jedoch gibt es selbst bei morderen Beschleunigern einen Framerateeinbruch, falls die Raten zu hochgestellt werden (z.B. 8xAF und 4xFSAA). Hierzu wäre die aktuelle Top-Hardware gefragt. Die meisten PCs wären mit so einer Einstellung überfordert.



Tranform & Lightning

Transform and Lightning (kurz T&L), ist eine Technik, die es der Grafikkarte erlaubt Licht und Berechnungsoperationen durchzuführen, die sonst der Hauptprozessor durchführen müsste. So kann ohne Qualitätsverlust eine hohe bis sehr hohe Leistungsteigerung erzielt werden. Die benutzte Anwendung muss aber, im Gegensatz z.B. zu FSAA, T&L unterstützen.



Multi-Texturing

Multi-Texturing, früher wegen ungeheurer Geschwindigkeitsverluste nur in damaligen Top-3D-Spielen (wie Unreal) verwendet. Heute benutzt fast jedes 3D-Spiel Multi-Texturing. Bei Multi-Texturing werden einfach mehrere Texturen übereinandergelegt, was im Endeffekt sehr ansehnlich ist



Curved Surfaces

Die Technik Curved Surfaces dient dazu Rundungen realistisch darzustellen. Ohne Curved Surfaces sind z.B. Rundgänge eckig. Curved Surfaces wird übrigens in der Quake 3 Engine von id-software angewandt. Einige neue Spiele verzichten jedoch, wegen ohne hin schon hoher Polygonzahlen komplett auf Curved Surfaces (wie Unreal Tournament 2003 von Epic Games)

Hier ist ein Bild zu sehen, in welchem Curved Surfaces eingesetzt werden. Die Technik ist an den 3 Rundbögen zu sehen.

Das Bild stammt aus dem Spiel Quake 3 Arena von Id-Software, welches die Quake 3 Engine verwendet.


Curved Surfaces in der Quake 3 Engine



Pxiel Shader

Der Pixel Shader bietet nun ein allgemeineres Verfahren zur Berechnung der Schattierung – und dies sogar auf Pixel-Ebene. Das Erscheinungsbild jedes einzelnen Pixels kann durch seine Ausrichtung gegenüber mehreren Lichtquellen bzw. zum Betrachter bestimmt werden. Da dies dynamisch bei jedem Frame neu berechnet wird, sind bewegte Lichtquellen, überlagerte Schatten und vor allem auch ganz neue Erscheinungsbilder der Objekte möglich. Der Programmierer ist nun nicht mehr davon abhängig, ob dieser oder jener Mechanismus direkt verfügbar ist – er kann sich durch ein Shader-Programm sein eigenes Schattierungsverfahren schreiben.



Vertex Shader

Während die Entwickler mit "Software T&L" noch das ein oder andere Gimmick einbauen konnten, haben sie nun keinen Zugriff mehr auf die Geometriedaten, sobald diese in die Transformationsebene gelangen. Die von der Hardware angebotenen Zusatzfunktionen sind sehr eingeschränkt und - falls vorhanden - herstellerspezifisch auf OpenGL-Extensions beschränkt. Die DirectX-Beleuchtungsmuster stammen aus der alten OpenGL-Welt und sind daher wenig für den Einsatz in Spielen geeignet, da zu wenig für "unrealistische", aber dafür ansprechende Spezialeffekte ausgelegt. Der Vertex Shader soll Abhilfe schaffen, indem der Spieleentwickler nach seinem Gusto auf die Abläufe in der T&L-Pipeline Einfluss nehmen kann. Auch Dynamikeffekte wie Keyframe Interpolation sind in der Geometrieebene anzuordnen, der "Vertex Shader" schließt diese Effekte im Normalfall mit ein. An dieser Stelle sei ebenso festgehalten, dass es sich beim "Vertex Shader", d.h. bei programmierbaren T&L-Einheiten, um ein komplett neues Feature handelt, welches in dieser Form nicht nur im Consumer-Markt, sondern in der ganzen 3D-Branche Premiere feiert. "Spiele-Karten" übertreffen mit dem Erreichen der DirectX 8-Funktionalität endgültig die Fähigkeiten von Profi-Beschleuniger, die bisher mit Volumentexturen, Accumulation Buffers und manchen T&L-Features noch etwas mehr Spezialfähigkeiten bieten konnten. Doch gerade wegen dieser Novität ist das Feature entsprechend mager dokumentiert, da man im Gegensatz zu allen bisherigen Hardwarefeatures nicht auf solide und umfassende OpenGL-Dokumentationen zurückgreifen kann.







   Anfang der Seite  |  Kapitel 1  |  Kapitel 2  |  Kapitel 3  |  Ende der Seite   



Wie schnell ist meine Grafikkarte?


Manche haben sich diese Frage vielleicht schon gestellt, aber sie haben noch keine Antwort gefunden. Das Zauberwort für das Ermitteln der Leistung des PCs bzw. der Grafikkarte heisst "Benchmark"! Mit Benchmarks kann man die Leistung des PCs oder Grafikkarte messen.



Wie funktioniert ein Benchmark?

In einem Benchmark wird eine 3D-Demo abgespielt und dabei die FPS (Frames per Second, Bilder pro Sekunde) gemessen. Die Tests lassen sich mit verschiedensten Einstellungen in Bezug auf Auflösung und Farbtiefe durchführen. Die Resultate werden oft in FPS ausgebeben. Das menschliche Auge empfindet 24 Bilder oder mehr als "flüssig". Wenn ein Spiel z.B. nur mit 13 FPS läuft, tritt ein unnagenehmer Effekt auf: Ruckeln!



3D Mark 2001 SE

Um die Leistung des PCs, besonders abhänhig von der Grafikkarte (jedoch braucht man auch eine passende CPU, so dass beide Komponenten optimal zusammenarbeiten. In dem im Folgenden genannten Benchmark spielt die Grafikkarte eine größere Rolle. Bei gleicher CPU und zwei verschiedenen GPUs ist der Leistungsunterschied größer als bei Verwendung von 2 verschiedenen CPUs und der gleichen GPU) zu testen, gibt es einen sehr weit verbreiteten Benchmark: 3DMark! 3DMark benutzt immer die neuesten 3D Techniken, um besonders die Grafikkarte auf die Probe zu stellen. Die neueste Version ist "3DMark 2001 SE".

Sie kann unter http://www.madonion.com heruntergeladen werden (ca. 25MB).



Benchmarken mit 3DMark 2001 SE

In 3DMark wird die Leistung nicht in FPS, sondern in Punkten, "3DMarks", ausgegeben. Je mehr Punkte desto besser. Die Bedienung von 3DMark 2001 SE ist simpel. Nach dem Programmstart sind bereits alle wichtigen Einstellungen gesetzt und durch einen druck auf die Taste "Benchmark" geht es los!


3DMark 2001 SE Hauptbildschirm

Hier ist der Hauptbildschirm von 3DMark 2001 SE zu sehen. Die Funktion der einzelnen Bereiche ist im Folgenden erklärt!


3DMark 2001 SE Pro

Oben Rechts im Hauptfenster werden die Systeminformationen angezeigt. Der Name der Grafikkarte und die für den Test gemachten Einstellungen. Durch einen Klick auf "System Info" werden ausführliche Systeminformationen angezeigt. Durch einen Klick auf "Change..." können die Testeinstellungen verändert werden.

Oben Links lässt sich dem aktuellen Projekt ein Name geben und es lässt sich nach dem Test speichern, sodass man sein Ergebnis später wieder annsehen kann. Es gibt auch eine Möglichkeit seine Ergebnisse Online zu vergleichen. Hierzu benutzt man den Online Result Browser. In der kostenpflichten Pro-Version von 3DMark 2001 gibt es auch einen lokalen Result Browser, sowie einen speziellen Pro-Version Test (Bildqualität) und eine spielbare Demo des ersten Tests.

Man kann auch einstellen, welche Test durchgeführt werden sollen. Hierzu klickt man links in der Mitte auf "Change..." und wählt die Tests aus. Unten Links kann man noch Einstellungen, wie Sound an oder aus, für die Demo und die Game Demo treffen.

Wer die Pro-Version von 3DMark 2001 SE besitzt findet rechts in der Mitte die "Pro-Tools". Dort kann man den oben geannten Result Browser aufrufen. Durch "Batch-Run" kann man mehrere Tests mit verschiedenen Einstellungen hintereinander laufen lassen. So sind bis zu 1296 Tests möglich!

Unten Rechts gibt es dann schließlich 2, bzw. in der Pro-Version 3, Knöpfe. Ganz oben "Benchmark", der den Test startet. Darunter "Demo", welches eine selbstlaufende Demonstration ohne Messung anzeigt. Für die jenigen, die die Pro-Version haben, gibt es noch eine spielbare Demo des ersten Game-Tests.

Der Test dauert ca. 10 Minuten, wo nach die Ausgabe der 3DMarks verläuft:

Unter 3000 Punkte: Mittlere bis Schlechte 3D Leistung, die Grafikkarte reicht noch fü aktuelle Spiele. Bei Prozessoren unter 1 Ghz nur bis mittleren Details.

Unter 5000 Punkte: Mittlere bis Gute 3D Leistung, die Grafikkarte reicht noch ohne Probleme für aktuelle Spiele. Ein Prozessor im 1 Ghz Bereich vorausgesetzt.

Unter 7000 Punkte: Gute bis Sehr Gute 3D Leistung, die Grafikkarte ist für zukünftige Spiele gerüstet! Bei solch einer Grafikkarte sollte es schon ein Prozessor mit 1.5 Ghz oder mehr sein.

Unter 9000 Punkte: Ausgezeichnete 3D Leistung, der PC ist optimal für die Zukunft gerüstet! Der Prozessor und die Grafikkarte arbeiten sehr gut zusammen!

Über 9000 Punkte: MAXIMALE 3D Leistung, nicht mehr zu bremsen! Man ist 100%ig für die Zukunft gerüstet und kann auch später, vielleicht sogar noch in einem Jahr, Spiele mit höchsten Einstellungen spielen.


3DMark Beispielergebnis

Hier ist ein Beispielergebnis von 3DMark zu sehen. Es wurden 6956 Punkte erreicht. Rechts sind die Einzelergebnisse zu sehen! Der hier getestete Computer hat eine hohe 3D Leistung. Prozessor und Grafikkarte arbeiten sehr gut zusammen!


3DMark 2001 SE Ergebnis


   Anfang der Seite  |  Kapitel 1  |  Kapitel 2  |  Kapitel 3  |  Ende der Seite   



Homepage |  Wegweiser |  Schule |  Stadt & Region |  Unterricht |  Arbeitsgemeinschaften
Latein |  Titanic Projekt |  Alte Laurentianer |  Aktuelles,Infos |  Dateien laden |  Suche