3DCenter Diskussionsforen

AMD - Zen 3/Ryzen 5000 Review-Thread

Prozessoren und Chipsätze - Sa, 24.02.2024 17:00
Zitat: Zitat von HOT (Beitrag 13497513) 6400 wäre doof, da das IOD dann mit 2:1 läuft. 6200 wäre das Maximum. HUB nutzt 6000er für AMD und 7200 für Intel standardmäßig. Wenn HWUB schon RAM-OC fährt, werden sie klug genug sein, ein sinnvolles Setting zu wählen, welches auch gut performed. Wenn 6400 plötzlich langsamer als 6000 laufen, weil das SoC intern den IF-Multi hochschraubt, dürften sie das mitbekommen und gefixt (oder auf 6000 gelassen) haben.

rabbit r1 - your pocket companion - AI Device

das ging schnell
Zitat: „Buche mir einen Flug zum Viertelfinale“. Einfach per Sprachbefehl gehorcht der intelligente Assistent aufs Wort. Der Showcase zeigt anhand von konkreten Beispielen wie ein KI-Smartphone bei Reiseplanung, Einkauf, Videoerstellung oder Fotobearbeitung das Leben erleichtert. Möglich macht das ein digitaler Assistent der Telekom. Mittels KI übernimmt er die Funktionen unterschiedlichster Apps und kann alle täglichen Aufgaben erledigen, für die normalerweise mehrere Anwendungen auf dem Gerät benötigt würden. Ganz mühelos und intuitiv lässt sich der Concierge über Sprache und Text steuern. https://www.telekom.com/de/medien/me...n-apps-1060268

nVidia - Geforce GTX Titan: (P)Review-Thread

Grafikchips - Sa, 17.02.2024 18:04
Zitat: Zitat von Raff (Beitrag 13489771) Geforce GTX Titan elf Jahre später: Alte Enthusiast-GPU vs. neue Einsteiger-Grafikkarte

-> Nur in Teilbereichen "zukunftssicher". ;)

MfG
Raff Es gab doch auch noch die Titan Z als Flagship, die müsste doch auch Kelper GK110 sein analog zur GTX690 mit 2xGK104. Ein Vergleich (heute) mit einer HD7990 oder FirePro S10000 12GB wäre dann auch interessant. Edit: Aber man müsste sicherlich ein wenig mit dem nVidia Profile Inspector herumprobieren bis alles läuft. :redface:

Gruß
BUG

ChatGPT (KI-Chat, "HTML/Javascript"-Code erzeugen lassen)

Zitat: Zitat von Troyan (Beitrag 13491317) Benutzen Mistral mit 7B sowie Llama mit 13B Parametern. Der Vorteil hier ist, dass das ganze auf die TensorCores umgesetzt ist und nicht per CPU/Cuda läuft.

/edit: Paar Infos von nVidia: https://blogs.nvidia.com/blog/chat-w...available-now/ Was kein CUDA? TensorRT-LLM setzt auf CUDA auf, alles andere wäre dämlich... CUDA kann sehr gut mit den Tensor Kernen umgehen, oder was macht denn eine H100 damit? ;)
Kannst selbst nachschauen: https://github.com/NVIDIA/TensorRT-LLM

Offiziell aus der TensorRT Homepage:
Zitat: TensorRT, built on the NVIDIA CUDA® parallel programming model,[...]

Zitat: Zitat von Trap (Beitrag 13491360) Wenn Lllama13B geht, dann sollte technisch auch Llama70B gehen. Braucht halt in FP16 140 GB VRAM oder quantisiert so um die 45 GB. Also geht es technisch doch nicht. Wenn man nicht gerade eine dicke Quadro hat ;)

Gaming auf 8k

Nach einigen Monaten 8k muss ich heute mal ein leicht erschreckendes und überraschendes Feedback dazu geben.

Ich bin schockiert, wie gut ich 8K-Content mittlerweile erkenne und es zu schätzen weiß, wenn jemand auf Youtube mal in 8k gefilmt hat. Sobald ich dann wieder 4K sehe denke ich sowas wie:,,Uh, das ist jetzt doch ein bisschen soft". (Natürlich nur, wenn ich sehr nah vor meinem 65 Zoller sitze, aus 2m Entfernung keine Chance mehr.)

Doch ich hätte nicht erwartet, dass ich mich an 8K gewöhne wie an 120Hz und es so sehr vermisse wenn ich es mal nicht habe. Besonders, da ich es zu Beginn kaum bis gar nicht gesehen habe. Und es schockiert mich, weil 8K Geräte und Inhalte eher die Seltenheit und ziemlich teuer sind. Ich will nicht mehr zurück. Ganz ehrlich, auf einem Smartphone würden mir sogar 1080p genügen aber auf einem sehr großen TV... da will ich mittlerweile eigentlich schon 8k, auch, wenn ich es mir selbst ungern eingestehe, weil ich weiß, dass ich mir gerade keinen zweiten, ordentlichen 8K TV leisten kann. :freak:

Fu**, ich will nicht, dass mir 8K so gut gefällt, es ist noch mit so vielen Problemen verbunden, aber es ist geil. Besonders als riesen PC-Monitor ist es das Ultimum, ein wahr gewordener Pipe-Dream.

"Raytracing in Spielen" von Daniel Pohl

Zitat: Zitat von betasilie (Beitrag 6350270)
...IBM/Sony/Toshiba und MS) RT positiv gegenüber, mit Ausnahme von nVidia, die das ganze zumindest hinauszögern werden wollen. Wie AMD/ATi dazu stehen mögen, würde mich allerdings mal interessieren.
Stellt sich raus es ist genau andersrum. ;D

AMD/ATI - Radeon RX 7600 XT Review-Thread

Grafikchips - Do, 01.02.2024 20:00
Zitat: Zitat von raffa (Beitrag 13482258) Danke für die Auskunft.

Heisst das Clock/Boost festklopfen ist ineffizienter als per Powertarget regeln oder warum ist es ein Problem den Boost zu senken? (hab ich in dem Beispiel ja auch so gemacht) Verstehe die Frage nicht. Und wer sagt es wäre ein Problem den Boost zu senken?

nVidia - GeForce RTX 3070 Review-Thread

Grafikchips - Mi, 31.01.2024 13:27
Noch ein Nachtest 3070 vs 6750XT.
Ich verstehe sein Kommentar nicht warum sollte die 6750XT schwach sein war die nicht extrem teuer?

DLSS 2.2 vs Temporal Super Resolution (UE5) - Großer Vergleich

OK, hier mal ein Vergleich in Baldurs Gate 3:
https://imgsli.com/MjM2ODk2

Wobei das Standbilder sind und eigentlich zu scharf. In Bewegung sieht das nicht so gut aus.

Ich habe das aktualisiert, mehr Optionen eingebaut und bissl Bewegung eingebracht. :)
Inhalt abgleichen