Zum 3DCenter Forum
Inhalt




nVidia stellt die GeForce 6200 vor

12. Oktober 2004 / von aths / Seite 1 von 1


   Einleitung

Mit der gestern Nachmittag vorgestellten GeForce 6200 komplettiert nVidia sein Produktprogramm an SM3-Beschleunigern nun auch in den LowCost- und OEM-Markt hinein. Die GeForce 6200 basiert auf dem gleichen Core wie die GeForce 6600 /GT, also auf dem NV43, wobei für die GeForce 6200 eine komplette Quad-Pipeline deaktiviert wurde, so dass von 8 Pixelpipes noch 4 übrig bleiben. Das heißt, der Chip bringt nach wie vor 146 Millionen Transistoren auf die Waage, und wird in 0,11 µm Strukturbreite von TSMC gefertigt.

Die Taktraten sind offiziell 300 MHz für den Chip und 275 MHz für den DDR-SDRAM angegeben, wobei der RAM mit 128 Bit Breite angebunden ist. Damit schließen wir anhand der vorliegenden technischen Daten auf durchaus brauchbare Performance. Zumindest gibt es ausreichend Rohperformance - jedoch nicht für Antialiasing, da die GeForce 6200 (im Gegensatz zu GeForce 6600/6800) nicht über Z- und Color-Compression verfügt, was für Antialiasing aber wichtig ist.

Gerade in Bezug auf diese Abspeckung der GeForce 6200 halten wir nVidias selbstbewusstes Auftreten "Ensures top-notch compatibility and performance for all DirectX 9 applications, including Shader Model 3.0 titles." für überzogen. Es geht bei der GeForce 6200 um eine Karte, die das Segment von SM3-Hardware nach unten hin erweitern soll, wobei Leute angesprochen werden, die für wenig Geld eine featuremäßig aktuelle Grafikkarte haben wollen, natürlich ohne dass sie gleichzeitig besonders gute Performance erwarten können.

Doch auch an Features fiel der Schere einiges zum Opfer: Die Fähigkeit zur Floatingpoint-Texturfilterung und zum Floatingpoint-Alphablending bietet die GeForce 6200 ebenfalls nicht. In erster Linie bleibt also die SM3-Fähigkeit erhalten, während spezielle HDR-Beschleunigung leider nicht geboten wird – was der Zukunftstauglichkeit natürlich nicht gerade zuträglich ist.


  GeForce 6200 GeForce 6600 GeForce 6600GT GeForce 6800 /LE GeForce 6800 GT/Ultra
DirectX 9.0 Shader Model 3.0 Ja Ja Ja Ja Ja
CineFX 3.0 Ja Ja Ja Ja Ja
UltraShadow II Ja Ja Ja Ja Ja
Z- und Color-Compression Nein Ja Ja Ja Ja
Floatingpoint-Texturfilterung Nein Ja Ja Ja Ja
Floatingpoint-Alphablending Nein Ja Ja Ja Ja
SLI-Fähigkeit Nein Nein Ja Nein Ja
nView Ja Ja Ja Ja Ja



   Die Zweihundert

Die "200" im Namen wird von nVidia unterschiedlich genutzt. Den ersten Auftritt hatte die "200" bei der GeForce2 MX200. Im Vergleich zur GeForce2 MX400 wurde im 32-Bit-Modus nur halbe Performance angeboten. Die GeForce2 MX100 verschwand sehr schnell wieder von der Bildfläche, aber die GeForce2 MX200 verkaufte sich dank des Zugpferdes "GeForce2" ganz gut. Leider auch an Spieler, welche mit dem 64-Bit-SDR-Interface natürlich nur selten glücklich wurden.

Ein großer Erfolg war dann der GeForce3 Ti200 beschieden. Diese bot bereits werkseitig hohe Leistung, glänzte durch sehr gutes Übertaktungs-Potenzial und wurde später auch oft schon in 128-MB-Versionen angeboten, was sie insbesondere im Vergleich zur nachfolgenden GeForce4 Ti Serie konkurrenzfähig machte. Viele erfüllten sich den (seinerzeit normalerweise recht teuren) Traum einer 128-MB-Karte mit der vergleichsweise günstigen GeForce3 Ti200.

Sinnvoll wurden diese 128 MB Grafikkarten-Speicher natürlich eher erst mit der nachfolgenden GeForce4 Ti bzw. den Spielen der seinerzeitigen Generation. Die GeForce4 Ti4200 gab es mit schnellen 64 MB oder nicht ganz so schnellen 128 MB RAM. Beide Versionen waren ein Erfolg, vor allem die 128er Boards setzten sich dann durch.

Mit der GeForceFX-Reihe wurde auch die GeForceFX 5200 vorgestellt. Diese Karte bietet dem Gelegenheitsspieler durchaus passable Leistung, die gängige Onboardgrafik-Lösungen immer noch spielend übertrifft. Leider geht bis heute vor allem die (nur geringfügig kostengünstigere) Version mit 64-Bit-Speicherinterface über die Ladentheke. Derartig beschnitten ist von der GeForceFX 5200 auf jeden Fall abzuraten.

Leider, leider kamen inzwischen sogar schon GeForce 6600er Versionen mit 64-Bit-Speicherinterface in den Handel, obwohl dies bei dieser Mainstream-Grafikkarte wirklich völlig sinnbefreit ist. Wir erwarten 64-Bit-Versionen generell auch bei der GeForce 6200, womöglich auch wieder in so hohem Umfang wie bei der GeForceFX 5200. Und um die Gelegenheit zu nutzen, möchten wir das ein für alle mal klar und deutlich sagen: Grafikkarten mit 64 Bit DDR-Anbindung sind einem Spieler prinzipiell nicht zu empfehlen.

Mit der GeForce 6200 richtet sich nVidia – wie zuvor mit der GeForceFX 5200 – vor allem an jene, die nur über einen Onboard-Grafikchipsatz verfügen. Onboardgrafik reicht ja für Office aus und senkt die Herstellungskosten für den PC. Nun möchte der eine oder andere dennoch einmal einige 3D-Spiele laufen lassen. Diese Käuferschicht ist fast nie bereit, viel Geld für eine Karte der gehobenen Mittelklasse auszugeben. Um jene Kunden zu erreichen, wird an der Karte gespart, wo möglich.

Es ist keine Schande, wenn man neben dem Computer noch andere Hobbys hat und für die Grafikkarte nicht mehrere hundert Euro ausgeben möchte. Doch jeder sollte sich informieren, ob das Modell, welches er ins Auge gefasst hat, auch ein 128-Bit-Interface hat. Eine GeForce 6200 mit 128-Bit-Speicherinterface bietet durchaus vernünftige Leistung für wenig Geld, eine 64-Bit-Version ist dagegen trotz des preislichen Vorteils gegenüber der 128-Bit-Version nicht wirklich schneller als eine Onboard-Grafik.


  GeForce
PCX 5300
GeForce
PCX 5750
GeForce
6200
GeForce
6600
Radeon
X300 /SE
Radeon
X600 Pro/XT
Radeon
X700
Codename nVidia NV37 nVidia NV39 nVidia NV43 nVidia NV43 ATi RV370 ATi RV380 ATi RV410
Herstellung 45 Mill. Trans. in 150nm bei TSMC 80 Mill. Trans. in 130nm bei TSMC 146 Mill. Trans. in 110nm bei TSMC 146 Mill. Trans. in 110nm bei TSMC 75 Mill. Trans. in 110nm bei TSMC 75 Mill. Trans. in 130nm low-k bei TSMC 120 Mill. Trans. in 110nm bei TSMC
Technologie-Klasse DirectX9 Shader 2.x DirectX9 Shader 2.x DirectX9 Shader 3.0 DirectX9 Shader 3.0 DirectX9 Shader 2.0 DirectX9 Shader 2.0 DirectX9 Shader 2.0
Geometrie-Pipelines 1 Array 1 Array 3 3 2 2 6
Pixel-Pipelines 2x2/4x1 2x2/4x1 4x1 8x1 4x1 4x1 8x1
Raster Operation Units (ROPs) ? ? 4 4 4 ? 8
Shading-Einheiten pro Pixel-Pipeline pro zwei Pipelines: eine Allzweck-Unit + zwei TEX-Units, deren Nutzung sich im gleichen Takt gegenseitig ausschließt
zusätzlich pro Pipeline: ein DirectX8-fähiger Register Combiner
eine SFU/MUL/TEX-Unit + eine MAD/DOT-Unit eine TEX-Unit + eine arithmetische Allzweck-Unit
Chiptakt 250 MHz 425 MHz 300 MHz 300 MHz 325 MHz X600 Pro: 400 MHz
X600XT: 500 MHz
400 MHz
Speichertakt 200 MHz 250 MHz 275 MHz 250-300 MHz 200 MHz X600 Pro: 300 MHz
X600XT: 370 MHz
350 MHz
Speicheranbindung 64/128 Bit 128 Bit 64/128 Bit 64/128 Bit X300SE: 64 Bit
X300: 128 Bit
128 Bit 128 Bit
übliche Speicherausstattung 128/256 MB DDR 128/256 MB DDR 128/256 MB DDR 128/256 MB DDR 64/128/256 MB DDR 128/256 MB DDR 128 MB DDR
üblicher Speicher 5.0ns 4.0ns 3.6ns 3.3-4.0ns 5.0ns X600 Pro: 3.3ns
X600XT: 2.5-2.8ns
2.8ns
Slot-Design SingleSlot SingleSlot SingleSlot SingleSlot SingleSlot SingleSlot SingleSlot
Slot-Interfaces PCIe x16 PCIe x16 PCIe x16 AGPx8, PCIe x16 PCIe x16 PCIe x16 AGPx8, PCIe x16
Stromverbrauch (Vollast) gesch. 15 Watt ca. 25 Watt gesch. 20 Watt gesch. 30 Watt gesch. 15 Watt X600 Pro: ca. 20 Watt
X600XT: ca. 25 Watt
gesch. 30 Watt
zusätzliche Stromanschlüsse PCIe: keine PCIe: keine PCIe: keine AGP: ?
PCIe: keine
PCIe: keine PCIe: keine AGP: ?
PCIe: keine
Launch 17. Februar 17. Februar 11. Oktober 12. August 1. Juni 1. Juni 21. September
Markteintritt (Europa) Juli Juli November Oktober Juli Juli November
US-Listenpreis (vor MwSt) ? ? 128MB: 119 $
256MB: 149 $
128 MB: 149 $ ? ? 128 MB: 149 $
derzeitiger Straßenpreis 80 € 135 € ? 145 € X300SE: 65 €
X300: 90 €
X600 Pro: 120 €
X600XT: 150 €
?



   Preis und Leistung

Die GeForce 6200 128-MB-Version soll für 129, die 256-MB-Version für 149 Dollar auf den Markt kommen. Die Option auf SLI wird nicht angeboten, GT oder Ultra-Versionen gibt es auch nicht. Wir erwarten, dass für ca. 99 Dollar eine 64-Bit-Version mit 128 MB in den Handel kommen wird - und dass sich so mancher von diesem "Schnäppchen" täuschen lässt. Das wird von nVidia natürlich sehenden Auges in Kauf genommen. nVidias Kunden sind ja nicht wir, sondern die Grafikboard-Hersteller - und die kaufen keine preiswerten Chips, wenn es technisch unmöglich wäre, sie auch mit nur 64 Bit Breite an den Speicher anzubinden.

Allerdings halten wir einen dreistelligen Preis für zu hoch, um die erwähnte Käuferschicht anzusprechen, die beim PC so auf den Preis achten, dass sie einen Computer mit onboard-Grafik gekauft haben und nun nach einer ebenso günstigen Spieler-Grafikkarte suchen. Einen zweistelligen Preis mit einem 64-Bit-Interface zu realisieren, ist aber auch keine Lösung, die dem Gelegenheitsspieler nützen würde, da hiermit einfach zu viel Leistung geopfert wird, zumal die für hohe Auflösungen und Antialiasing wichtige Komprimierung von Tiefen- und Farbinformationen nicht geboten wird.

Preislich muss sich auf alle Fälle noch etwas tun, sonst sollte der Käufer sinnvollerweise ein bisschen drauflegen und sich eine GeForce 6600 zulegen (natürlich keine 64-Bit-Version dieser!), welche in der Standardversion mit 149 Dollar für die 128-MB-Ausführung nur geringfügig teurer ist als die GeForce 6200. Oder, sobald lieferbar, eine Radeon X700 (die Radeon X700 bietet gerade im Zusammenhang mit Antialiasing oft etwas mehr Performance, und hat außerdem gleich sechs Vertexshader) zu einem ähnlichen Preis wie die GeForce 6600.

Interessant bleibt die Tatsache, dass die GeForce 6200 nicht auf dem NV44 basiert. Offensichtlich handelt es sich um eine Verlegenheitslösung. Um langfristig in diesem sehr preissensitiven Segment Gewinne zu erwirtschaften, dürfte man es sich kaum leisten können, dauerhaft auf den doch recht groß geratenen NV43-Chip zu setzen. Wir vermuten demnach, dass für die GeForce 6200 ein NV44 nachgeschoben wird.

Auf der anderen Seite, wenn sich GeForce 6200 und 6600 nur durch 4 Pixelpipelines unterscheiden, und die GeForce 6200 ansonsten die volle Featurepalette bietet, dürfte man mit dem Wegnehmen von 4 Pipelines auch nicht so viel sparen: Der 2D-Teil inklusive dem Videoprozessor, die Vertexshader-Technik mit 3 Vertexshadern nimmt mehr Chip-Fläche ein, als man zunächst denken mag.

8 Pixel- und 3 Vertexpipes wegzulassen (wie vom NV40 auf den NV43), spart nur etwa 76 Millionen Transistoren (wobei "nur" im Kontext zu sehen ist: Die GeForce4 Ti kommt mit insgesamt 63 Millionen Transistoren aus). Vier NV40-Pixelpipes, also eine einzelne Quadpipe, sind wohl mit rund 30 Millionen Transistoren anzusetzen. Und ob der für die GeForce 6200 verwendete Chip nun ca. 115 (NV44) oder 146 (NV43) Millionen Transistoren schwer ist, könnte eventuell doch weit weniger relevant für den Fertigungspreis sein als ursprünglich angenommen.

Vor allem spart nVidia mit der derzeitigen Benutzung des NV43 für die GeForce 6200 am anderen Ende auch: "Kaputte" NV43-GPUs müssen jetzt nicht mehr weggeworfen werden, solange die Fehler nur eine einzelne Quadpipeline betreffen. Das lässt der Spekulation Spielraum, dass es einen NV44 nicht geben wird - oder dass hierfür noch einmal deutlich an Features abgespeckt wird und der NV44 dann Basis eine extra Grafikkarten noch unterhalb der GeForce 6200 werden könnte.

Die andere Möglichkeit ist natürlich, dass es später für die hochvolumige Produktion doch eine NV44-basierende GeForce 6200 geben könnte. Diese Auslegung wird dadurch gestützt, dass die GeForce 6200 ohne Z- und Color-Compression beworben wird, hier lassen sich nochmals viele Transistoren einsparen. Gleiches gilt für die FP16-Einheiten in der TMU und im Alphablender, die die 6200 laut der nVidia-Unterlagen nicht hat. Auch hier lassen sich etliche Transistoren sparen. Damit könnte ein eigener Chip für die GeForce 6200 natürlich deutlich "leichter" als der NV43 sein. Dass eines Tages der NV44 für die GeForce 6200 genommen wird, ist nicht offiziell, liegt somit aber nahe.

Im Moment wurde auch die GeForce 6200 nur für PCI Express angekündigt. Wie üblich steht es den Grafikkarten-Herstellern jedoch frei, eine AGP-Bridge auf die Karte zu setzen und somit auch GeForce 6200 Karten auf AGP anzubieten - trotzdem dürfte es in diesem Fall (im Gegensatz zur GeForce 6600 /GT) eher wenige bis keine Angebote auf AGP geben, da der hauptsächliche Markt dieser Karte wohl bei den KomplettPC-Bauern liegt und diese derzeit deutlich schneller als der Retail-Markt auf PCI Express umschwenken.

Ein paar erste Performance-Aussagen zur GeForce 6200 in der 128-Bit-Version gibt es schon beim Tech Report sowie bei AnandTech: Beide Artikel unterscheiden sich allerdings teilweise in ihren Aussagen, denn beim Tech Report liegt zumeist die GeForce 6200 um 10 bis 20 Prozent vorn, während AnandTech auch eine Reihe von Benchmarks mit Gleichständen zwischen beiden Karten hat.

Beachtenswert ist zudem, daß die GeForce 6200 erwartungsgemäß bei höheren Anti-Aliasing Modi unter dem Fehlen der Hardware-Kompression leidet und dann unterhalb die Radeon X300 rutscht - wobei höhere Anti-Aliasing Modi auch sicherlich nicht das bevorzugte Anwendungsgebiet dieser beiden Karten sein dürften. In diesem Zusammenhang können wir im übrigen nicht so recht nachvollziehen, warum nVidia empfielt, die GeForce 6200 mit 4x AA und 8x AF zu benchen - und das auch noch in 1600x1200.

nVidia erwartet erste GeForce 6200 Grafikkarten für Anfang November 2004 im Handel. Die ersten Chargen werden allerdings wohl mehr oder weniger ausschließlich an OEM-Kunden gehen, so daß für den Retail-Markt eher Ende November ein realistischerer Termin für die GeForce 6200 darstellt.



Nachtrag vom 18. Oktober 2004:

Die derzeitige GeForce 6200 basiert bekanntermaßen auf dem NV43-Chip, auch wenn dieser aller Vermutung nach nur eine Übergangslösung für die GeForce 6200 darstellen wird. Doch der NV43-Chip, welcher hauptsächlich bei GeForce 6600 und 6600GT eingesetzt wird, weist natürlich eigentlich 8 Pixel-Pipelines auf, während bei der GeForce 6200 nur 4 davon freigeschaltet sind. Insofern war es eigentlich nur eine Frage der Zeit, bis jemand probieren würde, die 4 bei der GeForce 6200 deaktivierten Pipelines wieder zu aktivieren. Hardwareluxx haben dies mittels des RivaTuners versucht - und hatten sofort Erfolg.

In der Tat ließen sich die vier deaktivierten Pixel-Pipelines des GeForce 6200 Testsamples problemlos freischalten, worauf die Karte technisch nahe an eine GeForce 6600 herankommt. Sie kommt allerdings niemals ganz an eine GeForce 6600 heran, denn nVidia hat die GeForce 6200 technisch noch um einige weitere Punkte beschnitten (Z- und Color-Compression, Floatingpoint-Texturfilterung und Floatingpoint-Alphablending). Zusammen mit der ausgesprochenen Overclocking-Freudigkeit der GeForce 6200 läßt sich aber trotzdem jede Menge aus einer solchen freigeschalteten GeForce 6200 herausholen, auch wenn als erstes natürlich der niedrige Speichertakt bzw. die langsamen verbauten Speicherchips limitieren dürften.

Hardwareluxx erreichten jedenfalls mit einer freigeschalteten GeForce 6200 auf 550/375 MHz gute 17.258 3DMarks im 3DMark2001, während eine reguläre GeForce 6200 auf regulären 300/275 MHz nur 13.116 3DMarks erreicht. Dies dürfte vergleichsweise etwas überhalb des Niveaus einer regulären GeForce 6600 liegen. Ob sich jedoch die Modifizierung der GeForce 6200 wirklich breitflächig durchsetzen wird, bleibt abzuwarten: Erst einmal wird es diese Karten nur auf PCI Express geben, was derzeit noch die Masse der Interessenten ausschließt, zweitens ist die GeForce 6200 - gerade gegenüber einer GeForce 6600 - noch schlicht zu teuer, um sich wirklich zu lohnen, und drittens droht am Horizont der NV44-Chip, welcher dann auch physikalisch nur noch 4 Pixel-Pipelines haben wird, womit ein Modding der GeForce 6200 nicht mehr möglich wäre.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig 3DCenter-Artikel - Index Home

Shortcuts
nach oben