24

News des 23./24. März 2024

Laut TechPowerUp hat AMD einen Teil der bislang nicht ganz ausreizbaren Übertaktungs-Fähigkeiten der Radeon RX 7900 GRE freigeschaltet: Mittels des neuen AMD-Treibers 24.3.1 funktioniert nunmehr auch die Speicherübertaktung oberhalb von 2316 MHz, was der Karte nochmals einen guten Boost geben kann. Im Test der Powercolor 7900GRE Hellhound ergab sich ohne dies eine Mehrperformance von +8,2%, mit kräftiger Speicherübertaktung sind es nunmehr gleich +14,9%. Das absolute Übertaktungsergebnis sieht mit 77,1 fps nicht ganz so prall aus (eine Sapphire-Karte erzielte ohne große Speicherübertaktung bereits 75,1 fps), was aber nur bedeutet, dass die anderen Karten nunmehr die Chance haben, dieses Ergebnis mittels der neuen Möglichkeit zur großen Speicherübertaktung sogar noch weiter zu überbieten.

3DMark13 TimeSpy Extreme GT1 Stock-Perf. OC vor 24.3.1 OC mit 24.3.1
ASRock 7900GRE Steel Legend 66,4 fps 72,9 fps  (+9,8%) -
PowerColor 7900GRE Hellhound 67,1 fps 72,6 fps  (+8,2%) 77,1 fps  (+14,9%)
Sapphire 7900GRE Nitro+ 69,0 fps 74,8 fps  (+8,4%) -
Sapphire 7900GRE Pulse OC 66,9 fps 74,7 fps  (+11,7%) -
Sapphire 7900GRE Pure OC 67,8 fps 75,1 fps  (+10,8%) -
gemäß der Ausführungen von TechPowerUp

Denkbar somit, dass die besten Übertaktungsergebnisse zur Radeon RX 7900 GRE am Ende bei Richtung +18% Mehrperformance landen, normiert auf die Referenz-Performance der Karte könnten es sogar leicht oberhalb +20% sein. Dies wäre dann das Leistungspotential der Radeon RX 7900 XT, welches die Radeon RX 7900 GRE im Übertaktungsbetrieb erreichen könnte – ein lange nicht mehr gesehener Übertaktungserfolg. Nochmals etwas mehr wäre zu erreichen, wenn AMD auch noch die zweite Limitierung beim Chiptakt entfernt, welcher derzeit nicht oberhalb 2803 MHz zu steigern ist. So oder so sollten sich die Hardwaretester diesen Fall nochmals genauer ansehen und vor allem die erreichte Mehrperformance genauer herausarbeiten. Die bislang hierzu vorliegenden Benchmarks unter dem 3DMark13 TimeSpy helfen zur grundsätzlichen Einschätzung, können jedoch nicht dafür garantieren, dass auch unter realen Spielen ein gleichartig hoher Leistungsgewinn herauskommt.

Twitterer Bilawal Sidhu weisst auf ein interessantes Neben-Ereignis auf nVidias Hausmesse GTC hin – der Frage an den nVidia-CEO nach AI-generierter Spielegrafik bzw. dem Zeitrahmen bis dahin. Die längere Antwort hierauf haben Tom's Hardware niedergeschrieben, in der Kurzfassung erwartet der nVidia-CEO dies in 5-10 Jahren. Dabei sollen in 5 Jahren die ersten Resultate sichtbar werden und das ganze somit ins Bewußtsein der Öffentlichkeit gehen, in 10 Jahren diese Entwicklung bereits (weitgehend) abgeschlossen sein. Hierbei geht es augenscheinlich auch nicht um die Erstellung von Spiele-Grafik mittels KI-Tools durch die Spiele-Entwickler selber (läuft schon), sondern vielmehr die Erzeugung der Spielegrafik auf den PCs der Spielern eben mittels KI.

How far do you think we are in this world where every pixel is generated at real-time frame rates? And what is your vision for gaming and non-gaming experiences in that new paradigm?
Quelle:  Bilawal Sidhu auf nVidias GTC
 
I think with almost almost everything in technology, the S curve is not longer than a decade once it becomes true, once it becomes practical and better. And, of course, ChatGPT is not only practical; in most cases, it's better. I think it's less than ten years away. In ten year's time you're at the other end of that S curve. In five years from now, you're probably right in the middle where everything is changing in real-time, and everybody's going, 'Oh, look at that, this is happening.' And so you just got to decide, are we two years into it, into that ten years? Probably, we're probably already two years into it. And so I would say that within the next five to ten years, somewhere in between, it's largely the case.
Quelle:  nVidia-CEO Jensen Huang, niedergeschrieben von Tom's Hardware

Dies würde einen (sehr) bedeutsamen Paradigmen-Wechsel ergeben, weil ja faktisch alle bisherigen Entwicklungs-Zweige der 3D-Grafik-Entwicklung hiermit obsolet würden. Ebenfalls bedeutsam wäre die Schnelligkeit dieses Wechsels, denn dass sich so grundsätzlich abweichende Sachen so schnell durchsetzen, gab es zuletzt in der Anfangszeit der 3D-Grafik. Gleichfalls kann man die Aussage durchaus als zu optimistisch betrachten, denn jene wurde eher basierend auf technischen Möglichkeiten gedacht – nicht aber in Richtung Effektivität und Bezahlbarkeit im Consumer-Segment. Für ein ganzes PC-Spiel mit Grafik-Darstellung durch KI sollte eine enorme Rechenleistung notwendig sein – unsicher, ob man dies im Consumer-Bereich schon im genannten Zeitrahmen aufbieten können wird. Hinzu kommt immer auch der Effizienz-Effekt: Enorme Rechenleistungen für die KI-Erstellung von Grafik kosten Strom, u.U. ist ein reguläres Rendering viel Energie-effizienter und somit Massenmarkt-tauglicher.

Nicht einfach dürfte auch der Übergang sein, selbst wenn Dinge wie Upscaler mit KI-Anteil hier eine gewisse Vorform darstellen und in Zukunft sicherlich noch breiter eingesetzt werden dürften. Aber ab einem gewissen Zeitpunkt endet der Effekt von Upscalern und dann müssen Teil der eigentlichen Grafik KI-erstellt werden. Hierfür muß möglicherweise erst noch viel Grundlagen-Arbeit betrieben werden, um dies allgemeingültig hinzubekommen. Dass eine Allzweck-Waffe wie eine große KI, die bei Superkonzernen wie Microsoft, Google, etc. steht, eine schöne Grafik generieren kann, ist kein Maßstab dafür, dies in Realtime auf Consumer-PCs mit deren vergleichsweise limitierter Hardware hinzubekommen. Man kann diese große KI halt nicht auf den Nutzer-PC verfrachten, selbst wenn die zu erledigende Aufgabe klein ist – ergo muß dies um mehrere Dimensionen heruntergebrochen werden, ohne dabei die Qualität zu verlieren. Nicht auszuschließen, dass zumindest diese Aussage des nVidia-CEOs weit zu optimistisch war und wir in 10 Jahren immer noch beachtbar von KI-generierter Echtzeit-Grafik entfernt sind.