Nachtrag IX

Freitag, 11. Mai 2007
 / von Leonidas
 

Nachtrag vom 2. Mai 2007

Mit der Zeit (und einigen Leaks) scheint sich nunmehr halbwegs zu klären, was sich hinter den (weiterhin für den 14. Mai angesetzten) neuen ATI-Chips verbirgt – vor allem in Bezug auf die Unterschiede zwischen den einzelnen Grafikchips. So wird der HighEnd-Chip R600 wohl mit 64 Shader-Einheiten (nach anderer Zählweise 320), 16 Textureneinheiten und 512 Bit DDR Speicherinterface antreten. Der Mainstream-Grafikchip RV630 soll dagegen 24 Shader-Einheiten (bzw. 120), 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface haben, was diesem Chip (auf gleicher Taktraten) 33 Prozent der Shader-Leistung und 50 Prozent der Texturier-Leistung des HighEnd-Modells geben sollte – was dann schon wesentlich besser aussieht als dieselben Verhältnisse bei nVidias aktueller Mainstream-Klasse (27 bzw. 29 Prozent).

Einzig und allein das 128 Bit Speicherinterface dürfte weiterhin ein gewisser Bremspunkt für den RV630-Chip darstellen, was sich allerdings vornehmlich nur unter höheren Auflösungen auswirken sollte. Bleibt man bei der Auflösung auf für Mainstream-Grafikchips gängigen 1280x1024, erscheint der RV630 doch als potenter als der G84 (GeForce 8600 Serie), da bei ATI der Abstand der Mainstream-Klasse zur HighEnd-Klasse rein von den technischen Daten her klar geringer ist. Ob der RV630 diesen theoretischen Vorteil auch in einem praktischen Leistungsvorteil gegenüber der GeForce 8600 Serie umsetzen kann, wird sich aber wohl erst am 14. Mai ergeben, die derzeitigen Vorab-Benchmarks beschäftigen sich eher denn mit den HighEnd-Modellen der Radeon HD 2900 Serie.

Neue Benchmarks dieser Karte gibt es hier zu erspähen – wobei die Quelle dieser Zahlen umstritten ist: Teilweise sieht das ganze wie ein Hersteller-eigenes Dokument aus, auf der anderen Seite wird die vorgenannte Grafikkarte auch teilweise mit "Radeon HD X2900 XT" etwas falsch bezeichnet. Prinzipiell sind diese Benchmarks zudem nicht überzubewerten, da die SLI-Messungen mit der GeForce 8800 GTS als viel zu schwach erscheinen, wie mit einem falschen Treiber aufgenommen (was wiederum durchaus in Richtung eines Hersteller-eigenen Dokuments deutet). Die prinzipielle Aussage dieser Zahlen wäre wenn dann aber diese, daß sich die Radeon HD 2900 XT primär mit der GeForce 8800 GTS herumschlagen wird – und nicht der GeForce 8800 GTX.

Dies soll sogar AMD/ATI auf der Presseveranstaltung in Tunis so gesagt haben, wie Fudzilla berichten. Preislich dürfte ATI die Radeon HD 2900 XT damit wohl auf 399 Dollar Listenpreis legen, was hierzulande aufgrund des konstant günstigen Dollarkurses wohl in Straßenpreisen von 360 bis 380 Euro resultieren sollte. Damit würde ATI sicherlich eine sowohl vom Preis als auch der Leistung her sehr vernünftige Konkurrenz zur GeForce 8800 GTS auf die Beine stellen können. Die GeForce 8800 GTX wird ATI allerdings wohl nur mit der erst später erscheinenden Radeon HD 2900 XTX angreifen können. Angeblich soll es hierbei ein neues Design dieser Karte geben, welche nicht mehr das Problem hat, nicht schneller die XT-Ausführung zu sein – Bilder hierzu sind hier zu finden.

Davon abgesehen finden sich auch immer genauere technische Daten zum R600-Chip ein, beispielsweise wie hier abgebildet. Zudem gibt es jede Menge Bruchstück-Informationen zur R600-Technik, welche mittels diverser geleakter AMD-Folien ihren Weg ins Netz fanden: Teil 1, Teil 2, Teil 3 und Teil 4. Diesen Folien fehlt natürlich oftmals die Erklärung, so daß man sich manchmal aus den Marketingnamen noch nichts zusammenreimen kann. Erwähnenswert ist sicherlich das neue "Custom Filter Anti-Aliasing" (CFAA), mit welchem ATI gegen nVidias neues "Coverage Sample Anti-Aliasing" (CSAA) antreten will. Hinter den hohen Sample-Angaben von CFAA verbirgt sich aber schlicht eine Technik, mittels welcher die Samples der umherliegenden Pixel mit für das Anti-Aliasing Verwendung finden – damit spart man enorm an Performance, weil diese Samples der umherliegenden Pixel ja sowieso schon berechnet werden.

Auf der anderen Seite bedeutet dies nichts anderes, als einen Blurfilter auf das gesamte Bild zu legen: Wenn Samples von fremden Pixeln zur Berechnung des Anti-Aliasings eingesetzt werden, werden nicht nur Polygonkanten geglättet, sondern auch Texturen – man verliert dort an Texturenschärfe und damit Bildqualität. Dabei ist diese Idee noch nicht einmal neu, nVidia hat schon des längeren einen entsprechenden Anti-Aliasing Modus namens "Quincunx" im Angebot. ATI will es nun aber bei CFAA deutlich besser machen – was bei den höheren CFAA-Modi eventuell sogar gelingen könnte: Dort liegen dann bereits acht "echte" (aus dem richtigen Pixel stammende) Samples vor, welche sich von den zusätzlichen, aus fremden Pixeln stammenden Samples nicht mehr so stark irritieren lassen dürften. Zudem will man die fremden Samples wohl anders gewichten als die "echten", um dem Quincunx-Effekt entgegenzuwirken.

Dennoch ist rein von der zugrundeliegenden Technik her ein gewisser Blureffekt nicht auszuschließen – ob man dies im Spielealltag sehen kann, müssen die kommenden Launch-Tests zeigen. Dort wird sich dann auch herausstellen, ob die Performance der Karten überhaupt ausreichend für diese neuen Anti-Aliasing Modi ist. Davon abgesehen gibt es noch ein paar aktuelle Bilder der kommenden ATI-Karten: Radeon HD 2900 XT sowie Radeon HD 2400/2600 Karten – wobei die Radeon HD 2400 auch schon als passiv gekühlte Version abgebildet wurde. Selbiges berichtet die Overclockers Workbench im übrigen auch zur Radeon HD 2600 XT – wenn diese Karte dann wirklich noch schneller als das nVidia-Gegenstück GeForce 8600 GTS ist, würde ATI zumindestens im Mainstream-Bereich deutlich punkten können.

Nachtrag vom 3. Mai 2007

Wie gemäß der umfangreichen Vorab-Berichterstattung im Prinzip schon bekannt, launcht nVidia mit dem zweiten Mai-Tag (bei Lieferbarkeit ab dem 15. Mai) seine GeForce 8800 Ultra – und stellt damit ATIs kommender Direct3D10-Klasse eine weitere, noch höhere Hürde entgegen, noch bevor diese überhaupt in den Markt gelangt. Allerdings sind die Steigerungen der Ultra-Version nicht wirklich weltbewegend: Wie vorher schon erwartet worden war, ändert sich an der zugrundeliegenden Technik absolut überhaupt nichts, sondern gibt es allein höhere Takraten: 612/1512/1080 MHz bei der GeForce 8800 Ultra bedeuten gegenüber den 575/1350/900 MHz der GTX-Version allerdings nur arg gemächliche Steigerungen von 6/12/20 Prozent, was kaum großartige Performancegewinne verspricht.

Und genau so sehen dann auch die zum Thema erschienenen ersten Artikel aus (Liste), welche im Schnitt der GeForce 8800 Ultra einen Performancevorsprung von 10 Prozent gegenüber der GeForce 8800 GTX geben. Dies gilt allerdings nur in Auflösungen ab 1280x1024, darunter gleichen sich die Leistungen der beiden Top-Karten von nVidia zu stark – sie sind schlicht schon zu schnell und kommen in Auflösungen bis 1024x768 zu oft in die Nähe des CPU-Limits (zumindestens in Timedemo-Messungen, welche die CPU geringer belasten als Savegame-Messungen bzw. das reale Spiel). Als Ablösung zur GeForce 8800 GTX ist die Ultra-Version somit keineswegs brauchbar, dafür ist der Leistungsunterschied deutlich zu gering. Offensichtlich scheint es sich um ein reines Prestige-Projekt von nVidia zu handeln, um ATI noch einmal viel deutlicher die derzeitigen Markt- bzw. Machtverhältnisse aufzuzeigen.

Denn zu einem europäischen Listenpreis von 699 Euro (in den USA gar satte 829 Dollar) ergibt sich gegenüber der derzeit für ca. 490 Euro zu bekommenden GeForce 8800 GTX kein gutes Preis/Leistungsverhältnis: Runden 40 Prozent Mehrpreis stehen wie gesagt nur 10 Prozent Mehrperformance gegenüber. Wirklich torpediert wird die GeForce 8800 Ultra allerdings von den schon im Markt befindlichen GeForce 8800 GTX Grafikkarten mit ab Werk höheren Taktraten: Interessant sind hier die "BFG GeForce 8800 GTX OC2" mit Taktraten von 626/1450/1000 MHz sowie die "XFX GeForce 8800 GTX XXX" mit Taktraten von 630/1400/1000 MHz. Dies trifft zwar beim Shader- sowie beim Speichertakt noch nicht ganz das Niveau der GeForce 8800 Ultra, doch dafür sind die beiden vorgenannten Karten schon für 550 Euro zu bekommen, was ein deutlich besseres Preis/Leistungsverhältnis als bei der GeForce 8800 Ultra bedeutet.

Nachtrag vom 7. Mai 2007

Laut der ComputerBase hat der Grafikkarten-Hersteller HIS am Mittwoch kurzzeitig bereits die Ankündigung und Spezifikationen der eigenen Radeon HD 2900 XT Grafikkarte auf der HIS-Webseite gehabt, Screenshots dieser inzwischen zurückgezogenen Webseiten befinden sich hier: Teil 1 und Teil 2. Wirklich neues gibt es mit den dort zu sehenden Daten und Marketing-Stichwörtern allerdings nicht, allenfalls bestätigen sich einige der vorher schon bekannten Details. Die Spalte mit den Taktraten hatte HIS allerdings erstaunlicherweise frei gelassen – ganz so, als ob ATI sich diesbezüglich noch nicht final festgelegt hätte.

Jedoch gibt es hierzu inzwischen halbwegs sichere Hinweise, wiederum stammend aus den vorgestern schon vermeldeten AMD-Folien. Die PC Games Hardware hat hierzu noch eine weitere Folien anzubieten, welcher die Chiptakte diverser kommender ATI-Grafikkarten zu entnehmen sind. So soll die Radeon HD 2900 XT auf R600-Basis (320 Shader-Einheiten, 16 Textureneinheiten und 512 Bit DDR Speicherinterface) mit 742 MHz Chiptakt antreten, der Speichertakt dieser Karte liegt gemäß anderen Quellen bei 800 MHz. Die allerdings nicht vor Juni nachfolgende Radeon HD 2900 XTX soll gemäß früherer Berichterstattung dann mit 800/1100 MHz antreten, was eigentlich doch auf einen vernünftigen Performance-Unterschied zwischen XT- und XTX-Version hindeuten würde.

Desweiteren soll die Radeon HD 2600 XT auf RV630-Basis (120 Shader-Einheiten, 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface) mit gleich 800 MHz Chiptakt antreten, allerdings fehlt zu dieser Karte derzeit noch ein Speichertakt. Da der RV630-Chip aber nur über ein 128 Bit DDR Speicherinterface (wie die Konkurrenz in Form des G84-Chips der GeForce 8600 Serie) verfügt, ist hier ein ebenso hoher Speichertakt zu erwarten, um die negativen Auswirkungen dieses doch etwas kleinen Speicherinterfaces zu minimieren. Und letztlich soll die Radeon HD 2400 XT auf RV610-Basis (40 Shader-Einheiten, 4 Textureneinheiten und ein 128 Bit DDR Speicherinterface) auf 700 MHz antreten, was für eine LowCost-Lösung ausgesprochen viel ist – auch wenn man bedenkt, daß der Speichertakt dieser Karte gemäß früherer Berichterstattung ebenfalls bei 700 MHz liegen soll.

Noch ein paar Anmerkungen zur GeForce 8800 Ultra: Wie Golem ausführen, liegt der Stromhunger dieser Karte nur unmerklich höher als jener der GeForce 8800 GTX. So hat nVidia im Praxisbetrieb einen Stromverbrauch von 146 Watt bei der Ultra-Version vermessen, die GTX-Version liegt diesbezüglich gemäß früheren Meldungen bei ca. 140 Watt (was nebenbei die Messungen der X-bit Labs bestätigt, welche auf 132 Watt für die GeForce 8800 GTX kamen). Der maximale Verbrauch in speziellen, in der Praxis allerdings kaum zu erreichenden Stresstests liegt noch ähnlicher zusammen: 173 Watt für die GTX-Version und 175 Watt für die Ultra-Version. Davon abgesehen gibt es erste Listungen der neuen Karten, welche die 700-Euro-Preisvorstellung klar untermauern: Abgesehen von einer Listung mit offensichtlich irrtümlichen Preis gibt es derzeit keinerlei Händlerangebote unterhalb des europäischen Listenpreises von 699 Euro.

Fudzilla setzen mal wieder wilde Gerüchte zur Radeon HD 2900 XT in die Welt: Zuerst soll der Kühler der Karte laut Titel der Meldung gleich 100 Grad warm werden. Die genaue Meldung lautet aber eigentlich nur, daß im Praxistest der Kühler sehr warm wurde und das eine andere Quelle davon geredet hat, daß die Karte um die 100 Grad warm wird. Aller Vermutung sollte damit aber nur zum Ausdruck gebracht werden, daß einzelne Teile des Grafikchips unter Last bis zu 100 Grad warm werden können – was keine Besonderheit mehr darstellt, auch einige andere Grafikchips haben teilweise sehr hohe interne Temperaturen. Desweiteren wärmt man noch einmal die alte Meldung auf, wonach R600-Grafikkarten gleich 240 Watt Stromaufnahme unter 3D-Last haben sollen.

Hierbei ist unklar, wieso diese alte Meldung wieder hervorgekramt wird. Sicherlich gab es vor einigen Monaten einmal entsprechende Hinweise seitens ATI, allerdings wurde damals auch die Radeon HD 2600 XT als mit bis zu 128 Watt Stromaufnahme beschrieben – und diese Karte gibt es nun auch ohne extra Stromstecker, was auf einen Stromaufnahme von maximal 60 Watt schließen läßt. Insofern ist stärkstens anzunehmen, daß ATI die lange Verzögerung bis zum Launch des R600-Chips doch dafür ausgenutzt hat, auch bei diesem von den einstmals hohen Stromverbrauchs-Angaben herunterzukommen. In die gleiche Kerbe schlägt die Meldung, wonach ATI für die Radeon HD 2900 XT eine Netzteilanforderung von 750 Watt ausgeschrieben hätte – dies wäre dramatisch überhalb der GeForce 8800 GTX, für welche nVidia ein 450-Watt-Netzteil (mit 30A auf der 12V-Leitung) empfiehlt.

In einer weiteren Meldung wird die 750-Watt-Aussage dann sogar noch durch einen Screenshot eines AMD-Dokuments untermauert. Wie sich jedoch inzwischen herausgestellt hat, handelt es sich dabei um die ATI-Empfehlung für ein Radeon HD 2900 XT CrossFire-System mit einer QuadCore-CPU. Demzufolge bleibt anzunehmen, daß eine einzelne Radeon HD 2900 XT mit einer Netzteil-Anforderung ziemlich ähnlich der GeForce 8800 GTX zufrieden sein wird – sprich ein gutes Netzteil mit 450 bis 500 Watt. Wichtiger als eine hohe Insgesamtleistung dürfte hier aber sowieso wieder sein, wieviel Stromstärke das Netzteil auf der 12V-Leitung zur Verfügung stellt – aus welcher sich HighEnd-Grafikkarten vorwiegend speisen.

Nachtrag vom 11. Mai 2007

Wie TweakPC in Berufung auf Händlerstimmen vermelden, soll die demnächst anstehende Radeon HD 2900 XT einen nichtzuverachtenden Preissturz bei den HighEnd-Grafikkarten von nVidia auslösen. Die Radeon HD 2900 XT soll wohl für 399 Dollar Listenpreis antreten, die europäischen Straßenpreise sollten dementsprechend anfänglich bei runden 370 Euro liegen, womöglich sogar noch darunter. Damit würde die Karte der GeForce 8800 GTS 640MB gehörig Feuer machen – sowohl vom Preis her als wahrscheinlich auch bei der Performance, welche irgendwo zwischen GeForce 8800 GTS 640MB und GeForce 8800 GTX liegen dürfte. Im Endeffekt wird nVidia den Preis der GeForce 8800 GTS und GTX senken müssen, um sich dem Launch der Radeon HD 2900 XT anzupassen.

Und so soll die GeForce 8800 GTS 640MB dann auf um die 300 Euro heruntersinken, die GeForce 8800 GTX müsste dann in die Nähe von 400 gehen – was für beide Karten gemäß aktuellen Preisen schon ein nicht zu verachtender Preisabschlag wäre. Gleichfalls müsste allerdings auch der Preis der GeForce 8800 Ultra korrigiert werden, diese Karten sollen dann für unter 600 Euro zu haben sein – was den alten Relationsabstand zur GeForce 8800 GTX beibehält, im Vergleich zu jetzigen Preisen aber einen Abschlag von über 100 Euro darstellen würde. Unklar ist nur noch der neue Preis der GeForce 8800 GTS 320MB, aber angesichts der Prognose zur 640-MB-Version sind hier kaum mehr als 250 Euro zu erwarten. Die von TweakPC befragten Händler rechnen mit dieser neuen Preissituation im übrigen in ca. vier bis sechs Wochen, ergo Mitte bis Ende Juni.

Gemäß Fudzilla soll ATI ganze neun Grafikkarten am 14. Mai vorstellen: Im HighEnd-Segment sind dies Radeon X2900 XT mit 512 MB GDDR3-Speicher und Radeon HD 2900 XL mit 512 MB GDDR3-Speicher, im Mainstream-Segment Radeon HD 2600 XT mit 256 MB GDDR3-, 512 MB GDDR3- und 512 MB GDDR4-Speicher und Radeon HD 2600 Pro mit 256 MB GDDR3-Speicher sowie im LowCost-Segment Radeon HD 2400 XT mit 256 MB GDDR2-Speicher und Radeon HD 2400 Pro mit 128 MB GDDR2- und 256 MB GDDR2-Speicher. Etwas unklar ist hierbei noch der Sinn der zwei Radeon HD 2600 XT Karten mit 512 MB Speicher – die eine mit GDDR3 und die andere mit GDDR4. Auf der anderen Seite hört sich dieses Produktprogramm doch schon ganz griffig an: Zwar fehlt der wirkliche Gegenpol zur GeForce 8800 GTX/Ultra, doch unterhalb dieser könnte ATI das womöglich ausgewogenere Programm anbieten als nVidia ...

... Allerdings ist noch nicht sicher, ob alle diese Karten auch wirklich am 14. Mai erhältlich sein werden – einige von diesen könnten der Form halber vorgestellt und dann erst in einigen Wochen wirklich verfügbar werden. Anzeichen dafür gibt es schon des längeren für die gesamten LowCost- und Mainstream-Riege, welche womöglich erst zur Computex Anfang Juni breit verfügbar werden wird. Zu einem ähnlich späten Termin könnte auch die Radeon HD 2900 XL kommen. Spezifikationen zu dieser R600-basierenden Karte sind derzeit noch nicht bekannt, allerdings hört sich der prognostizierte Preispunkt von 279 Dollar schon jetzt hochinteressant an. Allerdings könnte es damit auch zu der Situation kommen, daß ATI am 14. Mai letztlich nur die Radeon HD 2900 XT liefern kann.

Fast, denn eventuell geht zu diesem Termin auch noch die Radeon HD 2900 XTX in den Markt – wenngleich nicht mehr unter diesem Namen. Inzwischen soll ATI die Karte "Radeon HD 2900 XT 1024 DDR4" nennen, allerdings scheint es sich hierbei wohl wirklich nur um eine Umbenennung handeln, denn der hohe Speichertakt von 1100 MHz soll auch bei dieser Karte wieder anlegen. Offensichtlich scheint ATI der Performanceabstand dieser Karte zur gewöhnlichen XT-Version aber weiterhin zu gering zu sein, so daß man auf den (mehr Leistung verheissenden) XTX-Suffix verzichtet – und die Karte letztlich nur im OEM-Segment ausliefern will. Gut möglich, daß es sich hierbei nur um eine Abverkaufsaktion für die schon produzierten 1024-MB-Version handelt und daß man in einiger Zeit mit einer wirklichen XTX-Version mit wohl auch mehr Chiptakt noch einmal angreifen will.

Davon abgesehen haben Fudzilla noch entsprechende Angaben zu den Stromverbrauchswerten der kommenden HighEnd-Grafikkarten von ATI anzubieten: So soll die Radeon HD 2900 XT 1024 DDR4 eine TDP (Thermal Design Power) von 180 Watt haben und dann 225 Watt verbrauchen. Bei der "gewöhnlichen" Radeon HD 2900 XT mit 512 MB Speicher lauten diese Werte 160 und 225 Watt, während es bei der Radeon HD 2900 XL 130 und 205 Watt sein sollen. Wie üblich benötigt auch diese Fudzilla-Meldung jedoch wieder einiges an Mitdenken, ehe man zum wahren Kern vorstossen kann: Denn ganz offensichtlich kann es sich bei den genannten "Verbrauchswerten" niemals um den Stromverbrauch im Alltagsbetrieb handeln, denn dieser kann schließlich nie überhalb der TDP liegen, wonach das Kühlkonzept der Grafikkarte erstellt wird.

Möglicherweise sind diese "Verbrauchswerte" von 200 Watt und mehr auch schlicht nur Extremmessungen, was maximal möglich ist – allerdings würde dann doch der große Abstand zu den TDP-Werten überraschen. Eher wahrscheinlich ist es aber, daß Fudzilla schlicht die Werte der jeweils falschen Bezeichnung zugeordnet haben: Die als TDP ausgegeben Werte stellen die Messungen des realen Verbrauchs dar und umgedreht. Dann würden die Werte auch viel eher in die allgemeinen Erwartungen passen, welche ein R600-Board beim Stromverbrauch zwar überhalb eines G80-Boards sehen, jedoch eben nicht deutlich darüber. Eine Radeon HD 2900 XT 1024 DDR4 mit 180 Watt Stromverbrauch würde somit genau dem entsprechen, was ATI früher schon ausgesagt haben soll: Maximal 40 bis 50 Watt überhalb von nVidia – und eine GeForce 8800 GTX verbraucht um die 132 Watt unter 3D-Last.