CD Projekt RED hat nicht nur The Witcher 3 ein Nextgen-Update verpasst, dessen Raytracing-Optionen Witcher 3 wieder zur Belastungsprobe für den PC machen, die Firma arbeitet bekanntlich auch an einem Raytracing-Update für die PC-Version von Cyberpunk 2077 (im Test). Das wird den "Overdrive Mode" als neue höchste Grafikeinstellung für das futuristische RPG einführen, das sich die Leistung der RTX 4000er-Reihe und DLSS 3.0 von Nvidia zunutze machen soll. Das führt nun ein neuer Trailer von Nvidia vor.
Wie eine Texttafel am Anfang ausführt, soll es im Overdrive Mode nicht mehr separate Techniken für Schatten, Reflektionen und die Weltbeleuchtung für eine abgesteckte Reihe an Lichtquellen geben. Stattdessen gäbe es mit dem neuen Grafik-Modus Pathtracing beziehungsweise volles Raytracing für die Lichtsimulation der gesamten Szene. Es folgen einige Vergleiche in der inzwischen für Nvidia typischen "RTX Off, RTX On"-Manier. Auch enthalten ist die Aussicht, dass die selben Szenen ohne das Upscaling-Verfahren DLSS 3.0 mit rund 15 bis 30 fps laufen würden, bei Aktivierung der Option aber mit 120fps und mehr.
Die Vergleichsszenen aus einem "Demo Showcase" sind dabei sehr kurz, die anderthalb Minuten Laufzeit des Trailers bestehen zu gut 45 Sekunden aus Spielszenen. Wie die Beschreibung des Videos verrät, soll Raytracing Overdrive ab dem 11. April 2023 für Cyberpunk 2077 auf PC verfügbar sein.
Klar, im Vergleich sieht man was. Würde ich beide Varianten mit 30 Min Abstand spielen würde ich persönlich den Unterschied vermutlich nicht mal checken :D
Ich finde dagegen, man sieht den Unterschied massiv. Kann mir schon vorstellen, dass man das auch im Abstand merkt, wenn man sich erst mal daran gewöhnt hat. Klingt jedenfalls nach sehr gutem Futter für den neuen PC :-)
Ach ich werde einfach das PS6 Remaster abwarten.
Aber das zeigt doch nur den Unterschied zwischen kein rt und dem "neuen" rt. Das ist wie bei Kantenglättung. Irgendwann ist die Verbesserung nur noch minimal, frisst aber extreme Ressourcen.
Tech-Porno!
Schon irgendwie doof, das nur der 4000er RTXen zu kredenzen. (ebenso mit "DLSS 3)
Hm. Wieso jetzt? Den verstehe ich glaube ich nicht. Wir reden von einer Technik, die bis vor kurzem noch völlig illusorisch für den Echtzeitbereich war. Lieber aus "Gleichberechtigungsgründen" verzichten?
Wenn die 4090 das in 4K schafft, gehe ich davon aus, das meine 3090 zumindest in FHD auch dazu fähig ist ;)
Ah ok. Habe ja "nur" eine 3080 ti, aber sehe den Punkt ;)
Wenn ich das Video richtig deute, dann beschleunigt DLSS 3 hier um den Faktor 8 plus die stärkere Rechenleistung der 4090. Das stimmt mich für die 30er Reihe schon skeptisch. Aber klar, als Experimentaloption wäre es schon nett gewesen.
Nicht wirklich, die 4090 bekommt 4K ja laut Video auch nur mit DLSS hin, sprich das Spiel wird vermutlich auch nur mit 1080p berechnet und via Machine-Learning-Upscaler erst auf 4K gebracht.
Das funktioniert erstaunlich gut, ich spiele mit meiner RTX3060 auch sowas wie Ghostwire: Tokyo mit maximalen Settings inkl. Raytracing dank DLSS mit um die 45 fps bei 4K (was mir dank GSync völlig reicht). Nativ hätte ich so 8 fps.
Das Problem ist nur, dass eine 3090 dann auf irgendwas unterhalb von 720p beim Rendering gehen müsste und da funktioniert das Machine-Learning-Upscaling auf 1080p nicht besonders gut. Der Upscaler sollte schon 1080p als Basis bekommen.
Update: Die 3090 darf in 1080p und 30fps auch mitmachen.
Na, immerhin! Viel Spaß! Mal sehen ob ich mittesten darf ;)
Bin mal gespannt, wie performant dieser Modus mit meiner RTX 2060 Super ist. ^^
Ich vermute mal wir RTX20x0-Nutzer werden von dem "Overdrive" schlicht nix bemerken weil es all diese tollen Dinge für diese Generation nicht gibt, das Spiel wird auf den RTX20x0 die bereits bekannten Techniken unverändert weiternutzen, mit viel Glück gibts noch ein paar Optimierungen und Feintuning aber ich glaube ehrlichgesagt nicht dran, für das "alte Zeuch" investiert kein Studio dieser Welt nicht mal eine halbe Mannstunde...
Naja, die RTX 2080 Super ist jetzt auch schon 4 Jahre alt, da sollte man wahrlich nicht mehr rummeckern, wenn man bei den neuesten High End Features außen vor ist. Das sehe ich bei der 30x0 Serie schon anders, besonders weil die so schwer zu bekommen war und die 40x0 Serie direkt zu Apothekenpreisen rausgehauen wurde.
Meines Wissens läuft aber Cyberpunk schon sehr gut auf der 20x0 Serie.
Das sieht schon phänomenal gut aus. Wünschenswert wäre für AMD GPU Nutzer, dass auch das kommende FSR 3.0 per Patch unterstützt wird.
Würde gerne den Vergleich zwischen altem und neuem RT sehen. Glaube da wäre eher Ernüchterung angesagt.
Mit dem neuen PC wird es doch sicher ein 4K Video dazu geben? Würde mich schon interessieren, wie es ohne Youtube Kompression aussieht.
Ja, da machen wir was nächste Woche.
Sehr schön. ICh fand zum ersten Mal hat sich Raytracing richtig gelohnt und man sieht auch einen Unterschied. Die FRage ist tatsächlich wie sieht es besser aus. Man hat sich ja an den jetzinge Look jahrzehnte gewöhnt und bei vielen RT games finde ich eher, dass es alt besser als neu aussieht.
Aber hier mit pathtracing ist es schon deutlich was besser ist.
Seien wir gespannt wie es in den nächsten Jahren weitergeht.
Also ich muss nach dem Anschauen auch sagen, dass mir das Game ohne RT besser gefällt, weniger Blendeffekte, weniger "Streulicht und Nebel", mehr Kontrast usw. Viele der RT-Lichtquellen sind auch unrealistisch platziert bzw. erzeugen unrealistische "Lichthöfe" im RT-Mode, während ohne RT ist alles einfach gleichmäßiger ausgeleuchtet. Sieht ohne RT evtl. nicht ganz so "real" aus, aber wer sagt schon, dass "real" immer auch "besser" sein muss... ;)
Bei so nachträglich integriertem Raytracing muss man immer bedenken, dass die Lichtquellen nicht darauf optimiert wurden. Deswegen sieht es manchmal dann auch schlechter aus, weil das Fake-Lighting, für das die Lichtquellen optimiert wurden, eine bessere Lichtstimmung hat.
Die Frage ist jetzt eher, ob die Entwickler reines Raytracing mit der Konsolenhardware hingetrickst bekommen, die GPU dort entspricht ja in etwa einer RTX2070, das wird schwierig. Wenn nicht, wird es wohl nicht viele Spiele damit geben, v.a. nicht mit einer Beleuchtung, die komplett auf Raytracing ausgelegt wurde. Nur für Highend-PCs, die vielleicht 5% Marktanteil haben, macht sich kaum einer die Mühe.
Könnte eine spannende Konsolengeneration werden. Die GPU hat sich von ihrer reinen Power nur wenig gegenüber Xbox One X und PS4 Pro gesteigert, aber dafür ist die CPU immens schneller, die SSD auch und gerade tut sich viel bei Machine-Learning-basierten Upscalern, Frameinterpolatoren und Postprocessing. Dafür müssen Entwickler aber ganz anders denken und planen als die letzten 15 Jahre, wo man in erster Linie einfach von immer mehr GPU-Power ausgegangen ist, die diesmal fehlt.
Ich sehe zwar einen Unterschied, aber nicht, dass es besser aussieht. oO Innen teilweise, aber die Weitsicht ist dann oftmals nicht mehr gegeben. Ist vielleicht realistischer, schöner finde ich es aber in dem Video ohne RT.
Das will ich nie wieder spielen .So ein seltsames game .
Wow, sieht das gut aus. Hoffentlich gibt's wieder einen Deal rund um den Patch-Release, dann hole ich mir das Spiel auch mal und tauche in diese Welt ein.
Den 30 Euro deal gibts doch schon seit kurz nach dem Release ;)
Aktuell kostet es auf Steam 60 EUR. Ja, den 30-EUR-Deal gab's schon öfter, deswegen warte ich, bis er (hoffentlich) die nächsten Tage nochmal kommt.
Na da kann ich ja umso besser weiterspielen. :)
Jaja, ich kauf mir ja bald einen neuen PC...
Die Aktien können ja dann irgendwann bald mal wieder nach oben gehen, bitte
Passt, nächste Woche kommt ein neuer Monitor, damit das nächste Bottleneck ausgemerzt wird. :D
Interessant, dass sie nochmal Arbeit in ihre Engine gesteckt haben, obwohl sie die in Zukunft ja nicht mehr verwenden wollen. Aber positive News nach dem Launchdebakel sind sicher auch was wert.
Das ist ein Nvidia-Vorzeigeprojekt. Da wird sicher ordentlich Geld von Nvidia reingebuttert. Sonst würden sie das wohl eher nicht tun.
Guter Punkt, v.a. da es sogar mit DLSS eine dieser irrsinnig teuren GPUs braucht.
Ich hab mir mehr für Machine Learning eine RTX3060 (erträgliche 400€) für meinen uralten PC gekauft und war überrascht, dass fast alles mit hohen bis maximalen Details und Raytracing darauf in 4K läuft, wenn das Spiel DLSS unterstützt. Meistens mit so 40-45 fps, was mit GSync sehr flüssig wirkt. Hab dann keinen wirklichen Sinn in den Luxuskarten mehr gesehen.
Sehe ich aber auch nach diesem Update nicht, die Mehrzahl der Spiele wird sich ja an der Konsolenhardware ausrichten. Ein paar Leuchtturm-Projekte von Nvidia ändern das auch nicht. Aber wenn sie vielleicht 1% der PC-Gamer mit sowas überzeugen, sich so eine überteuerte Karte zu kaufen, wird sich das schon rechnen.
Digital Foundry hat es sich auch schon angeschaut. Beeindruckend geil.
https://www.youtube.com/watch?v=I-ORt8313Og