DLSS is inderdaad veel beter maar de 4070ti is zowat de slechte keuze in de 4000 reeks van Nvidia.
12GB VRAM op een kaart van 1000€ is belachelijk.
Ik zou voor een 4080 gaan als uw budget het toelaat. Afhankelijk van de performance die je nodig hebt kan je ook 200€ minder spenderen en een 4070 nemen, die evenveel geheugen heeft. 7900XTX is een veel betere keuze dan de 4070ti indien je die performance/prijs toch wil.
DLSS 3.0 vind ik ook een goede feature maar in beperkte situaties en het is verkeerd framerate met DLSS 3.0 te vergelijken met framerate zonder dit op de AMD kaarten. Uw framerate mag dan wel hoger zijn en het spel mag soepeler lijken te draaien maar intern blijft het een lagere fps.
Dat is toch echt wel heel kort door de bocht. Noem me 5 AAA games die een enorm verschil zijn met RT aan?
4070ti zou ik ook niet aanraden. Maarja... ik zou geen enkele kaart deze gen aanraden. de enige goedgeprijsde kaart is de 4090. nvidia is trouwens bezig met een texture compressie methode die backwards compatibel is met oudere kaarten waardoor Vram vereisten zakken tot -50%. De vraag is natuurlijk of ze dit effectief backwards compatibel gaan maken of locken achter hun volgende generatie kaarten zoals ze met dlss 3 gedaan hebben.
7900xtx/7900xt zou ik net niemand aanraden. overkill voor rasterized games en totaal irrelevant in RT games. wat is de doelgroep voor die kaart? 4k e-sport gamers met 240Hz monitors? als je zo een monitor kan betalen kan je ook een 4090 betalen en ben je daar beter mee af... en Voor meer eye candy/RT koop je sowieso beter nvidia.
uw Dlss 3 verhaal is bullshit. Het is verkeerd te vergelijken waarvoor? Omdat amd 2 jaar achter zit en de technologie niet heeft? we vergelijken FSR2 toch ook met DLSS 2.0 ondanks dat DLSS 100% van de tijd sneller en mooier is. Dat is zoals klagen dat iemand met mouse en keyboard speelt terwijl jij first person shooters speelt met je xbox controller.
wat maakt het uit dat DLSS 3.0 op een andere manier frames toont op uw monitor als het voor de eindgebruiker geen verschil geeft? latency is het enige waar je over kan zagen maar nvidia reflex lost dat weer op. Het is gewoon de toekomst. dat is net zoals checkerboard rendering fake 4k op consoles is maar niemand daar om geeft want je ziet het ook niet tenzij je een vergrootglas uithaald op een blurry bewegende screenshot.
OVER RT games kan er u zelf meer geven :
Cyberpunk, control, metro exodus ( zeker de path traced versie is wow), portal, spider man miles morales, battlefield V, wolfenstein young blood, resident evil village, witcher 3 , shadow of the tomb raider, minecraft
cyberpunk , control, metro, minecraft en portal als paradepaardjes.
- op console ( zelf met de mediocre amd hardware en 30 fps) : ratchet & clank rift appart, horizon forbidden west, en GT7
Ale, dat is hier geen blind fanboyisme he maar gewoon straight up gezond verstand gebruiken. Het enige argument dat ik kan bedenken om nu een amd kaart te kopen is als RT/goeie graphics u echt niet interesseren, je één of andere autistische tik hebt om met een vergrootglas de fouten te zoeken in dlss (en hopelijk geen FSR gebruikt), en echt van plan bent om 5-6 jaar met die gpu te doen waardoor de extra VRAM en raster performance _mogelijks_ in de verre nabije toekomst een meerwaarde gaan bieden.
Dat en blind fanboisme, brand loyalty en copium door mensen die een miskoop gedaan hebben en hun slechte aankoop willen rechtvaardigen.
of dat nu amd videokaarten zijn of intel cpu's. het zijn beide idiote aankopen in 95% van de gevallen op dit moment.
Moest Intel trouwens morgen met een gpu afkomt die een 4090 verslaat in RT voor een paar honderd euro minder zou ik hier intel aanraden. Hun RT en xess zit ook voor op AMD.