desolation zei:
Als die minder actieve cores heeft, dan is het niet dezelfde chip. Dezelfde architectuur, dat wel.
Ik begrijp wel het verschil tussen de twee, Cyberpunk op 1440p met RT aan gebruik effectief het volledige geheugen van mijn 3070. Daarom ook dat een 3080 daar een serieuze gap in FPS slaat, zonder RT is dat gat veel kleiner. Ge koopt ook zo een kaart niet voor de komende 3 maanden he, een GPU van 1000 EUR mag wel even mee gaan. En het is nu al duidelijk dat als je naar bv een 5K2K ultrawide gaat dat in de nabije toekomst games niet meer gaan toekomen met 8GB of 10GB VRAM als je RT gebruikt.
Daarom dat ik ook geen 3080 uiteindelijk heb genomen, ik ben van plan een 3080Ti te nemen en dan de 3070 te verkopen.
neen.
architectuur = ampere = 3000 series
chip = die = GA 102 = HIGH END chip , = 3090, 3080ti, 3080
GA 104, = upper midrange chip = 3070, 3060ti
GA 106 = mid range chip , 3060 , ....
GA108= low range chip
, GA 100 = HPC = DATACENTER chip
veel kaarten sharen meerdere chips omdat ze anders defecte gpu's in de vuilbak moeten gooien. vandaar dat een volledig enablde 102 een 3090 is, en die waar wat cores kapot aan zijn een 3080 is. dat is weldegelijk dezelfde chip met verwaarloosbare prestatieverschillen, dat is de reden waarom de best value altijd de chip is met wat uitgeschakelde cores omdat die vaak en veeeeeel goedkoper is, en enorm binnen hetzelfde ballpark qua performance zit. Dat is de reden waarom mensen nu massaal 3080's kopen omdat die 3070 eigenlijk shitty value is. voor slechts 200 euro meer heb je een gpu van een tier hoger terwijl de prijs meestal X2 is daarvoor. dat is de reden waaro mensen massaal 3060ti's kopen omdat dat praktisch dezelfde gpu als een 3070 is aan een veel betere prijs/performance.
in het verleden was de x80 altijd de slechte price/performance kaart omdat die een upper midrange chip hadden die ze deelden met een 70 kaart, nu is dat niet zo.
alle games zijn gemaakt met consoles in gedachten. die gebruiken 16GB VRAM waarvan ze al 5-6GB kwijt zijn aan het os. de rest moeten ze nog delen als gewone ram en VRAM. die 10Gig ga je nog 5 jaar mee toekomen.... de bottleneck gaan RT cores zijn de komende x jaar, niet vram.
en neen, cyberpunk gebruit niet effectief het volledige geheugen van je 3070, hij ALLOCATE het, gebruikt het niet. de reden dat die 3080 zo een groot verschil maakt is omdat die 30-40% meer compute en RT cores bevat....
https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/
lees dit eens door alstublieft...
ik speel cyberpunk trouwens op een 244HZ 1440p monitor en op een 4K120 hz tv. en effectieve vram usage gaat NOOIT boven de 5-6GB.
als je gewoon kijkt met van die prul software zoals afterburner, gpu z, rivatuner,...; dan krijg je allocated ram. en dat is in elk spel de praktisch altijd de volledige VRAM van je gpu.
GPU-Z: An imperfect tool
GPU-Z claims to report how much VRAM the GPU actually uses, but there’s a significant caveat to this metric. GPU-Z doesn’t actually report how much VRAM the GPU is actually using — instead, it reports the amount of VRAM that a game has requested. We spoke to Nvidia’s Brandon Bell on this topic, who told us the following: “None of the GPU tools on the market report memory usage correctly, whether it’s GPU-Z, Afterburner, Precision, etc. They all report the amount of memory requested by the GPU, not the actual memory usage. Cards will (sic) larger memory will request more memory, but that doesn’t mean that they actually use it. They simply request it because the memory is available
stop alstublieft met hier verkeerde informatie rond te strooien en discussies te starten puur om uw gelijk te halen op een forum -_-