Desktop Videokaarten schandalig duur?

Ik ben benieuwd naar het antwoord van AMD.
Lol they don’t have one.
Die prestatiewinst is ook gekomen om AMD gewoon achterop te laten hinken.
Nog nooit heeft nvidia zo’n hoge prestatiewinst gedaan tot AMD dichtbij kwam vorig jaar.

Nu kan zijn dat AMD nog verassend uit de hoek komt but doubt it
 
Tot 91 procent sneller bij 4K plus ray tracing tov een 3090... :wtf:
Ze raden het ronduit af onder 4k gebruik, daarvoor gebruik je beter de vorige generatie.

Zal nog maar even wachten om die 3080 in huis te halen :D
 
Lol they don’t have one.
Die prestatiewinst is ook gekomen om AMD gewoon achterop te laten hinken.
Nog nooit heeft nvidia zo’n hoge prestatiewinst gedaan tot AMD dichtbij kwam vorig jaar.

Nu kan zijn dat AMD nog verassend uit de hoek komt but doubt it
DLSS en ray tracing blijven het grootste competitievoordeel van Nvidia t.o.v. AMD. Meer en meer games beginnen hiervoor support te krijgen, dus het is/wordt wat dat betreft aantrekkelijker om voor een Nvidia-kaart te gaan. Is voor mij ook de reden waarom ik voor Ampere GPU ben gegaan.

Maar toch blijf ik hopen dat AMD een echte vuist kan maken tegen Nvidia, wat uiteindelijk beter zal zijn voor consumenten, maar vrees daar ook voor...
 
Nog eens een dick move van Nvidia. 😆 Toen ik die specs zag, leek mij dat ook meer een "RTX 4070". Ben toch benieuwd wat AMD gaat aankondigen op 3 november met RDNA3. :)

 
Logisch want het was een compleet andere GPU dan de RTX 4080 16GB. Hoe ze het nog maar in hun kop krijgen ...
Die kaarten zijn nu al geproduceerd, dus ze gaan die wel moeten kwijtgeraken
 
Lol they don’t have one.
Die prestatiewinst is ook gekomen om AMD gewoon achterop te laten hinken.
Nog nooit heeft nvidia zo’n hoge prestatiewinst gedaan tot AMD dichtbij kwam vorig jaar.

Nu kan zijn dat AMD nog verassend uit de hoek komt but doubt it
Ik zou daar niet zo zeker van zijn. AMD komt met zijn chiplet design naar de GPU's. Als ze hetzelfde kunnen doen als hoe ze Ryzen gelanceerd hebben dan wordt het nog smullen. Ze kunnen ook, mochten prestaties tegenvallen, gewoon meer chiplets gebruiken he. Zo lang dat te koelen valt natuurlijk.
 
Ik zou daar niet zo zeker van zijn. AMD komt met zijn chiplet design naar de GPU's. Als ze hetzelfde kunnen doen als hoe ze Ryzen gelanceerd hebben dan wordt het nog smullen. Ze kunnen ook, mochten prestaties tegenvallen, gewoon meer chiplets gebruiken he. Zo lang dat te koelen valt natuurlijk.
Als ze het konden, hadden ze dat wel vorige keer gedaan denk ik in 2020 of vorig jaar, dunno wnr hun release was.
 
13 december voor de nieuwe AMD kaarten.
7900 XTX (24GB): $999
7900 XT (20GB): $899

En 2 normale 8-pin connectors nodig :unsure:
Goed geprijsd tegenover de nvidia kaarten... die 4080 zag ik vandaag aan 1600euro... lol
 
is niet alleen nvidia hoor,ook die achterlijke winkels die als vliegen op nen stront centjes zien natuurlijk,msrp 4090 is 1599$,das 1600 euro bv,dan gaat die 4080 geen 1600 euro kosten,dat zijn gewoon de winkels of ketens die misbruik maken van de situatie,want er zijn genoeg kiekes die de idiote prijzen betalen,ikzelf heb 1300 voor 3090ti betaalt,wat gezien de performance nog te doen valt,maar gaat buiten omdat die 7900xtx nu 1maal minder watt trekt,dat intreseert me meer,heb gelukkig 1550euro terug getrokken van eneco,dus ik klaag niet,maar er zullen genoeg mensen afzien door die idiote prijzen,zowel voor tech als de gewone dingen,alles word nu gebruikt om maar te cashen,en dat vind ik smerig,das echt misbruik maken van mensen die het zeer moeilijk hebben,gelukkig heb je geen dure vgakaart nodig,dat is pure luxe,maar nvidia gaat er bij mij uit.
100 watt verschil vind ik zeer veel.
 
1300 betalen voor een GPU, dat is toch heel persoonlijk dat het 'nog te doen' valt. Ik zou dat er echt nooit voor kunnen geven 😬
 
Ik ben benieuwd naar benchmarks. De 4090 gaan ze niet verslaan vermoed ik, maar prijs/prestatie zal het wel een kampioen zijn.
Al maak ik me wel zorgen in Ray Tracing performance. Er stond in 1 van de slides 1.7x die van de 6000 serie, maar daar trok die performance op niet veel. 1.7x niet veel is nog altijd gene vetten.

1300 betalen voor een GPU, dat is toch heel persoonlijk dat het 'nog te doen' valt. Ik zou dat er echt nooit voor kunnen geven 😬
het klinkt idd als waanzin, maar aan de andere kant zit je waarschijnlijk goed voor een 10-tal jaar. Als je zo denkt valt de investering nog wel mee.
 
@Cerv.Be,je moet wel bekijken wat deze kaart op dat moment koste in de winkel,deze kaart koste op dat moment nog een dikke 1800 euro,dan is 1300euro voor een ongebruikte 3090ti met garantie een goede prijs.
Had men oude kaart verkocht,en moest dan ook niet zozeer veel opleggen,maar ik speel ook alles in 4k.
Der is geen enkel spel dat niet fatsoenlijk draait,alleen cp2077 moet ik kleine aanpassing doen,dus daarvoor betaal ik ook meer,anders koop ik wel een ps5 of xbsx,die kosten een fractie ervan,maar je kan ook beiden totaal niet vergelijken met wat er op het scherm komt,dat is DAG EN NACHT verschil,maar dat betaal je dan ook.
 
DLSS en ray tracing blijven het grootste competitievoordeel van Nvidia t.o.v. AMD. Meer en meer games beginnen hiervoor support te krijgen, dus het is/wordt wat dat betreft aantrekkelijker om voor een Nvidia-kaart te gaan. Is voor mij ook de reden waarom ik voor Ampere GPU ben gegaan.

Maar toch blijf ik hopen dat AMD een echte vuist kan maken tegen Nvidia, wat uiteindelijk beter zal zijn voor consumenten, maar vrees daar ook voor...
DLSS - RT en G-sync ultimate niet vergeten :love2:
 
Dat gelooft ge toch zelf niet 😝
Tuurlijk wel. Bij mijn vorige PC (een 2500k) heb ik een GTX 590 gekocht. Ik heb daar 7 jaar mee gegamet, en de enige reden waarom deze obsolete geworden is is niet genoeg VRAM. In Fallout 4 haalde ik perfect speelbare framerates, maar sommige textures wouden niet goed laden.
Dan moet je nog weten dat dit een SLI kaart is en SLI al jaren dood was voor ik deze eindelijk op pensioen stuurde.
Ik heb nu een RX 580 dat al een middenmoot kaart was toen ik die kocht. Deze gaat ook al een 5-tal jaar mee. Ik speel daar bv Cyberpunk mee op 1080p mid-high.
 
Tuurlijk wel. Bij mijn vorige PC (een 2500k) heb ik een GTX 590 gekocht. Ik heb daar 7 jaar mee gegamet, en de enige reden waarom deze obsolete geworden is is niet genoeg VRAM. In Fallout 4 haalde ik perfect speelbare framerates, maar sommige textures wouden niet goed laden.
Dan moet je nog weten dat dit een SLI kaart is en SLI al jaren dood was voor ik deze eindelijk op pensioen stuurde.
Ik heb nu een RX 580 dat al een middenmoot kaart was toen ik die kocht. Deze gaat ook al een 5-tal jaar mee. Ik speel daar bv Cyberpunk mee op 1080p mid-high.
Ok.
Ik ben zelf geen die-hard pc gamer en momenteel doet mijn 5700XT nog zijn werk voor Forza Horizon 5, maar als er meer demanding exclusives uitkomen overweeg ik zelf toch wel al een upgrade ook al is deze kaart nog maar 2 jaar oud.
Dat is natuurlijk een keuze, je kan idd lang blijven gamen als je tevreden bent met mid settings.
 
DLSS - RT en G-sync ultimate niet vergeten :love2:
Is G-Sync echt de moeite? Ik ben al een tijdje in the market voor een nieuwe monitor, komende van UWQHD/60Hz/8ms en willen naar QHD/>60Hz/<=5ms, maar het valt mij op dat er eigenlijk heel weinig monitors zijn die G-Sync goed ondersteunen.
 
Terug
Bovenaan