3DCenter Diskussionsforen

Bessere Monitore?

Neue Beiträge im Forum Technologie - vor 1 Stunde 3 Minuten
Zitat: Zitat von Weltraumeule (Beitrag 13538168) Hat der C2 das Problem nicht? Sollte ich mir lieber diesen holen? Oder den C3 und die Range anpassen wie du es schon mal beschrieben hattest? Der C2 flackert auch, aber in den Szenarios welche ich testete, nicht so offensichtlich für das Auge sichtbar.

Ich würde einfach nach dem Preis schauen.

Wenn C2 günstig und neu dann kaufen.
Wenn C3 günstig dann diesen kaufen.

AMD - FX-8350 (Vishera) - Review-Thread

Prozessoren und Chipsätze - vor 1 Stunde 5 Minuten
Zitat: Zitat von Lehdro (Beitrag 13538195) Wenn das Frontend halt für zwei Kerne zuständig ist, aber nur einmal vorhanden...dann verhungert halt im schlimmsten(!) Fall ein Kern. Das gibt es so bei anderen CPUs (x86) nicht. Du kannst die "Kerne" halt nicht voneinander trennen - du kannst Module abschalten, aber keine einzelnen Threads. So ergibt das auch Sinn als Ganzes.

Mal ganz von den anderen Schwächen abgesehen. Da kam halt das Schlimmste zusammen. Das scheint in Spielen aber nicht der Fall zu sein. Steamroller verdoppelte das Front end (und bohrte noch viele andere Dinge auf) und hat nicht so viel mehr IPC ggü Piledriver gebracht.
Die Bohrmaschinenkerne hatten offenbar so wenig ILP extrahieren können, dass ein 4x Frontend kaum ein Flaschenhals zu sein scheint.

Intel - Stabilitätsprobleme bei Raptor Lake

Prozessoren und Chipsätze - vor 1 Stunde 11 Minuten
... was sogar der wichtigste Punkt von allen ist, nach solchen Schoten wie von GB.

AMD/ATI - Radeon RX Vega 56/64: Review-Thread

Grafikchips - vor 5 Stunden 50 Minuten
Die Bandbreite mit zwei HBM²-Stacks ist auch riesig ohne IF$. Mit einem Takt von 1000Mhz HBM² kommen da schon 512 GB/s zusammen. Dass AMD diese Karten noch an "Gamer" verkauft hatte, ist rein "Perlen vor der Säue" vor dem Hintergrund, dass Huang HBM² ausschließlich für teure Workstation / Mining und HPC-Produkte reserviert hatte.

Auch im HDR-FSR-Raster Jahr 2024 ist Vega56/64 nach wie vor eine sehr gute Einsteigerkarte. Unoptimiert auf dem Level der ~RX 6600 und optimiert in 1440p bzw. FSR-B-UHD wahrscheinlich schneller.

Leider fehlt mir derzeit die Zeit mal ein ordentliches Review Vega64 gegen die 1080Ti im HDR-FSR-UHD Modus durchzuführen, und vor allem interessante Spieletitel über die Jahre auszusuchen um auch die wirkliche "Zukunftstauglichkeit", spricht 2017 bis 2024 zu testen.

AMD - Ryzen 7000 (Zen 4) Review-Thread

Prozessoren und Chipsätze - Di, 07.05.2024 19:42
Zitat: Zitat von Exxtreme (Beitrag 13536726) Anscheinend gibt es ein Engineering Sample eines 7950X3D mit 2x Cache. So dass beide CCDs vom Cache abgedeckt werden um man sich die Sache mit Chipsatztreibern und Xbox Bar etc. sparen kann.

https://www.pcgameshardware.de/Ryzen...plets-1446821/

Bin gespannt wie schnell das Ding in Spielen ist. X-D Na ich weiß nicht. Vermutlich wird es trotzdem unterhalb des 7800x3d performen, wenn der Cache hilft, weil dann zwischen den Caches hin und her gesprungen wird, falls der Scheduler das nicht in den Griff bekommt.
Ansonsten fehlen ihm dann natürlich die schnelleren Kernchen, wenn es eher auf den Takt ankommt. Effizienter dürfte das Ding aber schon sein.

AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread

Grafikchips - Mo, 06.05.2024 21:38
Dual issue war doch seit dem dritten Treiber für RDNA3 kein Problem mehr, außer dass die Leistung mit jedem neuem Treiber etwas verbessert wurde. Eine 7800xt für 480€ ist ein Nobrainer.

AMD - Ryzen 9 7X3D Verfügbarkeitsthread

Prozessoren und Chipsätze - Mo, 06.05.2024 10:42
Zitat: Zitat von OgrEGT (Beitrag 13533910) Eigentlich sehr geil... Ich warte aber jetzt auf den Zen5X3D :massa: Darauf warte ich auch. Mein 5800x3d hält derweil noch sehr gut mit. Da kann ich bei Zen4 nichts sehen was mich reizt. Dafür sind mir die Umstiegskosten aktuell noch zu hoch für das bisschen Performancegewinn. Schade das es die 8000er Chips nicht mit 3d Cache gibt. Dürfte zen4c deutlich Beine machen trotz des niedrigen takts.

Die Mainboards sind aber nach wie vor seltsam im Preis gestaltet. Viel zu teuer. 2pcie x16 ports die kaum einer mehr braucht, ...
Auch das aktuelle Grafikkarten kein pcie V5 unterstützen ist nicht hilfreich. Klar wird es nicht viel bringen, aber warum verbaut man es dann inzwischen seit Jahren...
Der gewöhnliche Endkunde interessiert sich sicherlich nicht für noch schnellere nvmes. Aktuell ist in vielen Mainboards einfach so viel Nischenfeature drin, was auch die Preise zusätzlich treibt.

nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3

Es ist halt so, dass Strategiespiele meist an der CPU kleben. Und da könnte man FG sehr wohl gut nutzen um viel mehr fps rauszuholen.

OLED macht Fortschritte

Zitat: Zitat von w0mbat (Beitrag 13536288) Ich spiele gerade Dusk HD und wow - das Spiel sieht auf OLED viel besser aus! Dunkle Szenen sind richtig toll, es gibt bereiche in denen es komplett schwarz ist, bis auf ein paar Funken. Sieht wie ein komplett neues Spiel aus.
Ich staune in dunklen Spielen auch immer wieder. MOAR! (y)

Auflösung, AA und AF

Zitat: Zitat von Exxtreme (Beitrag 13536142) Weil die meisten Engines sog. "deferred renderer" sind. Und da funktioniert MSAA schlicht nicht. Funktionieren würde es mit der richtigen Hardware schon, es wäre allerdings kaum schneller als Supersampling

Zitat: Was da noch funktioniert ist SSAA und ansonsten nur noch Bildanalyse-Antialiasing-Techniken, zu denen auch TAA gehört. TAA ist keine Bildanalysetechnik, es ist Supersampling über Zeit.
Was du meinst sind Dinge wie FXAA oder MLAA

OpenAI Sora - Creating video from text

Zitat: Zitat von Durango (Beitrag 13512341) Grad das, temporale Stabilität, ist verdammt schwer mit dieser Technologie (LLM). Das Ergebnis ist halt immer etwas ungewiss. Die Videos sehen nett aus, aber mit ein paar Schnitten und so vom selben Objekt sähe das anders aus. Naja, irgenwann fällt das auch unter die Wahrnehmungsschwelle: siehe z.B. die Stunt-Doubles in den aktuellen Non-KI-Filmen. ;)

Man muss halt die KIs weiter auf diese Anforderung Trainieren, notfalls durch Reinforcement durch eine andere KI, die solche Abweichung bemerkt bzw. nach einem menschlichen Aufmerksamkeitsmuster bewertet.

Unreal Engine 4

UE4 + Erweiterungen im AAA Bereich


AMD/ATI - Radeon RX 6700 XT: (P)Review-Thread

Grafikchips - Sa, 04.05.2024 19:21
Die gute 6700XT 12GB ist schneller als die RTX3080 / Ti. :tongue:
NV kann bei Bethesda nicht mehr tricksen mit dem Speichermangel:

Fallout 4 Next Gen Update:

AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise

Grafikchips - Sa, 04.05.2024 09:59
Zitat: Zitat von OgrEGT (Beitrag 13535605) Du kannst die TBP begrenzen mit bis zu -10% PL oder über den Max Takt oder über die Max FPS...
Ich habe mi dem Silent BIOS meiner 7900XT Nitro -5% PL die TBP bei 300W begrenzt...
also powerlimit zu begrenzen hilft eher wenig. die 3090 hat mein 600w netzteil auch mit 250w powerlimit zum ausschalten gebracht. aber mit UV konnte ich sogar das powerlimit erhöhen und sogar mehr als 350w realverbrauch fahren ohne dass das netzteil meckerte.


da die tdp regulierung bei ampere sehr träge war, kamen trotzdem hohe peaks bei niedrigen powerlimits raus. wenn du aber die voltage um 15% reduzierst, dann reduzierst du eben auch die peaks um 15% .wenn man dazu noch die letzten 100mhz takt wegnimmt, kann man die peaks noch weiter reduzieren. da die reale leistung durch uv ja steigt, hat man trotzdem noch die leistung wie zuvor.

AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread

Grafikchips - Fr, 03.05.2024 20:00
Zitat: Zitat von vinacis_vivids (Beitrag 13535430) Wollt ihr mich verarschen? Wieder ne Nvidia Karte? AMD hat selber gezeigt wie kaputt FSR wenn dir das als Quelle besser passt.


https://community.amd.com/t5/gaming/...ng/ba-p/674027

Intel i5 13500 Vcore

Prozessoren und Chipsätze - Fr, 03.05.2024 09:45
Vollkommen normal die VCore.

AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread

Grafikchips - Do, 02.05.2024 10:18
ah danke euch beiden :up:

Dachte zuerst es wäre das links, aber das hat gefühlt eigentlich gar nichts gebracht :rolleyes:

nur ganz kurz(!) getestet:
im Schnitt rund 160W[neu:150]. Manchmal nur 120W[neu:100], dann wieder ein Spike kurzzeitig 180W[neu:200 :freak: ]

naja besser als nix ;D
Miniaturansicht angehängter Grafiken  

VIA - Zhaoxin x86-Prozessoren

Prozessoren und Chipsätze - Do, 02.05.2024 03:27
Zitat: Zitat von Loeschzwerg (Beitrag 13532705) KX-6000 is also an out-of-oder design. VIA Isaiah core (Nano) was the first implementation of an out-of-order architecture. KX-7000 is probably just improving the execution and branch prediction.

Can't wait for an in-depth review from Chips&Cheese like they always do:
https://chipsandcheese.com/2021/09/2...tric-boogaloo/ Than you so much for the clarification and the link to chipsandcheese. I just read all 4 articles, including Isaiah’s Branch Predictor on part 1 and Lujiazui Branch Predictor on part 2. All very interesting to me.
Overall they point several issues/limitations and therefore points to be improved.
So I now understant your interest on their next article about KX-7000 and their take on changes from Lujiazui. I too am now very curious to read it.

Real-time Raytracing

Natürlich ist GI geil.
Wenn die Welt von Might & Magic aber so clean wie ein OP-Saal aussieht, dann passt das einfach nicht.
RTX Remix ist erst richtig geil, wenn man nicht nur Beleuchtung einfügt, sondern auch die Texturen optimiert.
Diese Arbeit machen sich aber die wenigsten.
Inhalt abgleichen