KFA2 GeForce RTX 4090 SG (1-Click OC) - Test/Review (+Video)
Wir starten das neue Jahr gleich mit einem Hardware-Hammer: unsere Redaktion hat einen kritischen Blick auf die neue KFA2 GeForce RTX 4090 SG (1-Click OC) geworfen.
Von Christoph Miklos am 11.01.2023 - 23:25 Uhr

4090 im Überblick


Die GeForce RTX 4090 ist die erste Grafikkarte von NVIDIA, welche auf die neue „Ada Lovelace“ Architektur setzt. Die GPU „AD102“ ist mit 76,3 Milliarden Transistoren deutlich komplexer als der GA102 auf der RTX 3090 (Ti) mit 28 Milliarden Schaltungen. Die Größe ist mit 609 mm² aber vergleichbar. Möglich ist dies durch TSMCs N4-Prozess, der deutlich kleinere Strukturen als Samsungs 8-nm-Fertigung bietet. Die GeForce RTX 4090 nutzt noch nicht den Vollausbau der AD102-GPU – das Speicherinterface ist zwar am Maximum, doch es liegen noch Recheneinheiten brach: Die GeForce RTX 4090 kommt mit 128 Streaming-Multiprocessors und damit 16.384 FP32-ALUs daher, der AD102 bietet aber deren 144 respektive 18.432 – das lässt Spielraum für eine GeForce RTX 4090 Ti oder eine neue Titan RTX.
Das Temperatur-Target beträgt wie von NVIDIA gewohnt 82 °C, händisch kann es auf 88 °C erhöht werden. Das Power-Target liegt ab Werk bei 450 Watt, manuell kann es auf 600 Watt angehoben werden. Ebenfalls neu ist der 12+4-Pin-Stromstecker nach PCIe-5.0-Norm (12VHPWR), der über ein Kabel bis zu 600 Watt elektrische Leistung bereitstellen kann.
Monitore können an der GeForce RTX 4090 über eine HDMI-2.1-Schnittstelle oder über drei DisplayPort-1.4-Ausgänge mit DSC angesteuert werden. DisplayPort 2.0 unterstützen der AD102 und die anderen Ada-Lovelace-GPUs nicht. Dasselbe gilt für PCIe 5.0, die Grafikkarte kann nur mit dem PCIe-4.0-Standard umgehen.

Raytracing


Erneut steht im Fokus die gesteigerte Raytracing-Leistung. Zur Erklärung: Die Technologie bietet im Grunde eine realistische Simulation von Licht und damit einhergehend Schatten und Reflexionen.

DLSS 3.0


Derzeit ausschließlich und exklusiv können Grafikkarten der 4000er-Serie DLSS 3.0 nutzen. Im Kern ist DLSS 3 nach wie vor DLSS 2, dessen Technologie und Feature-Set 1:1 übernommen wurde. Alle vier bekannten Qualitäts-Modi bleiben aus diesem Grund vorhanden und können in DLSS-3-Titeln wie gewohnt eingestellt werden. Es kommt aber ein wichtiges Feature dazu: Frame Generation (FG). Titel, die DLSS 3 unterstützen, werden diese Funktion auch genau so nennen.
Zur Erklärung: In DLSS 3.0 werden während des Einsatzes ganze Frames von der KI erzeugt und zwischen die „echten“, also tatsächlich von der CPU und Grafikkarte berechneten Bilder eingefügt. Das funktioniert folgendermaßen: Die Grafikkarte berechnet etwa mit DLSS-Performance ein Bild in Viertelauflösung, darauf wird dieses als erstes Bild zurückgehalten. Wenn der zweite, ebenfalls mittels DLSS in reduzierter Auflösung erstellte, zweite Frame von der Grafikkarte berechnet wurde, wird der erste, bislang zurückgehaltene Frame, dazu genutzt, aus den Informationen des ersten mithilfe des zweiten Frames einen komplett neuen, von der KI erstellten Frame zu interpolieren.
Darauf wird Frame 1, der generierte KI-Frame (NVIDIA nennt diesen „Frame 1.5“), vor dem zweiten Frame ausgegeben. Letzterer dient zugleich wieder als Basis für die folgende KI-Berechnung („Frame 2.5“). DLSS 3.0 rendert also immer einen Frame, darauf folgt ein KI-Frame, darauf ein weiterer berechneter Frame, dann wieder ein KI-Frame. Jeder zweite Frame mit DLSS 3.0 ist also ein von der KI erzeugtes, „unechtes“ Bild, das zwischen tatsächlich gerenderten Frames, aus deren Informationen der KI-Frame erstellt wurde, eingeschoben wird. Vereinfacht sieht das Ganze so aus - Ausgang ist Viertelauflösung, also DLSS-Performance. In diesem Fall rendert die Grafikkarte also nur ein Achtel der tatsächlich auf dem Bildschirm sichtbaren Pixel. Der Rest entstammt dem Upsampling und den im Wechsel eingeschobenen KI-Frames.

Reflex


Ein weiterer elementarer Bestandteil von DLSS 3.0 ist das ebenfalls von NVIDIA stammende Reflex. Dieses Tool dient im Normalfall dazu, die Systemlatenzen auszulesen, also etwa Ihre Latenz von Display, Maus und Grafikkarte zu erfassen und etwa ihre Reaktionszeit zu messen. Dank ins Spiel integrierter API kann Reflex allerdings auch Einfluss auf die Render-Queue nehmen. Mit diesem Eingriff können Latenzen verringert werden, denn im Normalfall hält die CPU bereits von ihr berechnete Frames zurück, bevor diese an die Grafikkarte zur Weiterverarbeitung gereicht werden. Der Grund dafür ist, dass so die Grafikkarte besser ausgelastet werden kann, da stets ein oder mehrere CPU-Frames in der Hinterhand gehalten werden, die GPU somit auch gefüttert werden kann, wenn es bei der CPU, dem Streaming oder dem Nachladen hängt. Diese zurückgehaltenen Frames erhöhen allerdings auch den Input-Lag, da diese Frames bereits so weit berechnet sind, dass ihre aktuelle Eingabe etwa an der Maus nicht mehr berücksichtigt werden kann. Dies ist natürlich insbesondere in schnellen Shootern unerwünscht - und in diesem Fall hilft Reflex ab.
Die Implementierung von Reflex ist für DLSS 3.0 wichtig, da es gegenüber nativem Rendering (oder auch gegenüber DLSS 2.x, FSR 2.x und XeSS) einen zusätzlichen Frame zurückbehält, um von diesem die KI-generierten Frames abzuleiten. Mit DLSS 3.0 würde also eine zusätzliche, für nicht wenige Spieler wohl merkliche Latenz entstehen, wenn Reflex nicht zum Einsatz käme. Mit DLSS 3.0 samt Reflex ist die Eingabelatenzen in etwa vergleichbar mit dem Spiel bei nativer Auflösung und gleicher Frame-Berechnungszeit.

Kommentar schreiben

Artikel auf einer Seite anzeigen