Zum 3DCenter Forum
Inhalt




nVidia GeForce3 - technisches Preview

27. Februar 2001 / von Leonidas / Seite 1 von 2


Mit der heutigen offiziellen Vorstellung der GeForce3 in Paris gab es auch schon im Web einige Previews der englischsprachigen Kollegen zu bewundern - erstaunlich, hat doch die deutsche Presse ein Veröffentlichungsrecht erst ab dem morgigen 28. Februar. Aber auch die englischen Site´s haben etwas nicht - eine GeForce3-Karte. Wir wussten zwar schon etwas länger - unter dem Siegel der Verschwiegenheit - von diesen Probleme bei der Auslieferung der Karten an die Hardware-Tester, wobei wir diese bislang als Treiber-Probleme einordneten. Aber das selbst die wichtigen englischsprachigen Site´s momentan noch keine Karte haben, verwundert dann doch etwas. Eventuell ändert sich das ja in den nächsten Tagen - und irgendwann sind dann auch wir Europäer dran.

An den rein technischen Daten hat sich im übrigen gar nichts mehr geändert - die GeForce3 sieht pro forma einer GeForce2 Ultra sehr ähnlich: Wie diese hat man 4 Pixel-Pipelines mit je 2 Textureneinheiten, dies alles bei 200 MHz Takt. Auch die 64MB DDR-RAM sind nichts ungewöhnliches mehr - Ultra-like auf 230 MHz DDR taktend. Die GeForce3 erreicht somit in dem Sinne die selben theoretischen Werte wie die GeForce2 Ultra - die Vorteile liegen diesesmal nicht in schnelleren Chip- und Speichertakten oder mehr Pixel-Pipelines bzw.Texturen-Einheiten, sondern in der Architektur selber.

Geforce3 Logo

Da es wie gesagt noch überhaupt keine Karten gibt, schöpfen alle Previewer momentan einzig allein aus den von nVidia vorab den Journalisten zur Verfügung gestellten Informationen, welche seit heute auch in der mehr oder weniger selben Form auf nVidia´s Seiten offiziell und öffentlich zu finden sind. Trotz, daß wir auch diese Vorab-Informationen hatten, verweise ich nachfolgend immer wieder auf die offiziellen nVidia-Seiten. Damit ist die ganze Sache für alle jederzeit besser nachvollziehbar, da man die Dokumente notfalls immer selber einsehen kann.

Was ich nachfolgend allerdings nicht tun werde, ist eine bloße Abschreibübung dieser nVidia-Dokumente - die überschwemmen momentan das Web zu Haufe. Ich will hierbei nicht mittels eines Berichtes auf Basis eigener Worte den falschen Eindruck erwecken, ich würde hinter dem stehen, was nVidia da mit der GeForce3 fabriziert. Ganz im Gegenteil - der Abstand zur Sache ist mir sehr wichtig und ich will mich auch nicht vor den nVidia-Karren spannen lassen und mittels eines 10-seitigen Artikels die theoretischen Vorzüge der GeForce3 dem staunenden Leser nahebringen. Bei einer solchen Art Berichterstattung fehlt mir einfach zu sehr die kritische Note ... weshalb ich lieber einfach nur kurz zusammenfasse, was es an technischen Unterlagen in Form von Technical Briefs (PDF-Format) auf den nVidia-Seiten zu inspizieren gibt:



nfiniteFX Engine: Programmable Vertex Shaders ... Eine allgemeine Abhandlung über DirectX 8.0 Vertex Shaders und dessen Vorteile. Aller Vorraussicht nach ist dies eine Sache, welche erst in einiger Zeit von den Programmierern angenommen werden wird, da es auch eine gewissen Umstellung bedeutet. Daß z.B. vieles wieder in Assember programmiert werden müßte, steht nicht in diesem Dokument - nur daß dies heutzutage kaum noch jemand macht. Wer sich hier mehr infomieren möchte, dem sei der kritische Artikel von 3D Concept empfohlen.

nfiniteFX Engine: Programmable Pixel Shaders ... Eine als durchaus sehr praktisch einzuordnende Eigenschaft des GeForce3-Chips. Weniger wegen der von nVidia angepriesenen schöneren Bilder, vielmehr wegen der Möglichkeit, in einem Rendering-Durchgang ganze acht Textur-Operationen durchführen zu können. Das schafft der Chip zwar nicht innerhalb eines Taktes und spart somit gar nichts an Rendering-Leistung - aber durch den nur einen Durchgang wird einiges an Texturenzugriffen gespart, was die wertvolle Speicherbandbreite nicht so stark beeinträchtigt. Nett im übrigen zu sehen, wie zu diesem Falle die GeForce2 von nVidia selber mehr oder weniger niedergemacht wird - die Sache entbehrt nicht einer gehörigen Portion Ironie :-)

Lightspeed Memory Architecture ... nVidia spricht das AGP-Problem an, daß dieser Bus für hohe Geometriemengen glatt noch zu klein ist - prinzipiell richtig, rein praktisch aber noch Jahre entfernt bei den heutigen Geometriemengen. Das man sich trotzdem jetzt schon Lösungen für zukünftige Probleme in Form von "High Order Surfaces" überlegt, ist trotzdem löblich. Allerdings muß sich das auch bei den Programmierern durchsetzen, John Carmack ist beispielsweise ein entschiedener Gegner dieser Variante.

Richtig interessant allerdings das Memory Interface - es ist nicht einfach ein übliches 128bittiges DDR-RAM-Interface, denn dieses hat den Nachteil, daß es nur Daten im Format a´ 256 Bit verarbeiten kann. Wenn da nur 64 Bit davon belegt sind, sind die restlichen 192 Bit wertloser Datenmüll, welcher aber trotzdem die Bandbreite frißt. Die GeForce3 arbeitet hier mit einem "unterteilten" Memory-Controller, welcher anstatt einem 256bittigem Zugriff vier einzelne 64bittige Zugriffe verarbeiten kann:

Geforce3 256 Bit (4 x 64 Bit) Memory Controller

Meiner Meinung nach ist diese Art von Memory Controller ein echter, eventuell viel zu unbeachteter Vorteil der GeForce3. nVidia gibt keinen Zahl zum Gewinn durch diesen Memory Controller an, sagt allerdings etwas von einer 75-prozentigen Ineffizienz der gewöhnlichen 128-Bit-DDR-Controller. Dies ist natürlich maßlos übertrieben - aber gegen 10 bis 20 Prozent realer Vorteil ergibt sich aus dieser neuen Controller-Art bestimmt. Ein realer Vorteil wohlgemerkt - es ist keinerlei Unterstützung durch die Spiele-Programmierer notwendig.

Weiterführend beschreibt nVidia in diesem Dokument zur "Lightspeed Memory Architecture" noch die Z-Buffer-Komprimierung (etwas sehr ähnliches kann schon ATi´s Radeon) und das Z-Occlussion Culling, welches gern mit HSR übersetzt wird - beides zur Einsparung von Speicherbandbreite gedacht. Bei beiden Varianten wird man den Praxistest abwarten müssen, auch ATi´s Radeon hat mit seinem HyperZ zwar zugelegt, aber keine Bäume ausgerissen. nVidia übernimmt sich insbesondere beim Z-Occlussion gleich mal wieder mit Angaben zu angeblichen "50- bis 100-prozentigen Vorteilen" - eine Beurteilung dieser Sache ist auf die praktischen Tests zu verschieben. Hier muß nVidia erst einmal den Beweis antreten, daß die höheren Frameraten nicht durch das Auslassen von einzelnen Frames und durch das Hintergehen des Frame-Counters erkauft werden.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Weiter / Next

Shortcuts
nach oben