Videokaarten

Nvidia GeForce RTX 4090 Founders Edition Review

product-image

Nvidia GeForce RTX 4090 Founders Edition

9.5

De RTX 4090 van NVIDIA is de beste videokaart die anno Juli 2023 te krijgen is. Heb je een goed gevulde portemonnee, een grote computerkast en maakt het verbruik je echt niets uit dan is dit helemaal de kaart voor je. De FE kaart is vrij koel en stil te noemen wat niet altijd het geval is geweest. Gamen op 4K is bij elke instelling goed mogelijk. Hij is helaas niet altijd verkrijgbaar maar komt soms in de verkoop bij Notebooksbilliger (voor de Nederlanders) of LDLC (voor de Belgen). Ook is er weer een nieuwe voedingsconnector en dus nieuwe adapter. Toch is deze kaart een top aankoop als je voorlopig het beste wilt hebben.

Top
  • Snelste wat er op dit moment te krijgen is
  • Vrij stil onder load prestaties
  • Enorme stap gemaakt in raytracing prestaties
  • Koelt behoorlijk goed
  • HDMI 2.1
Flop
  • Weer nieuwe PSU connector
  • Verbruikt behoorlijk veel
  • Enorm groot

Dank voor het lezen van deze review. Voordat ik deze review start wil ik aangeven dat deze kaart via een vriend is aangekocht voor deze review bij Notebooksbilliger. De kaart is later voor dezelfde prijs doorverkocht aan een tevreden gebruiker. Er is geen winst behaald met het verkopen van deze kaart.

Zoals vaker gebeurd in hardware land komen fabrikanten met nieuwe generaties hardware. Dit zien we bij processoren, moederborden en natuurlijk ook bij videokaarten. NVIDIA is een fabrikant die al een tijd zeer succesvol is op de markt van videokaarten en doet lekker mee in de cyclus. Na een periode van leveringsproblemen tijdens de Ampere reeks (vanwege chiptekorten en cryptomining) is de markt weer een beetje genormaliseerd. Verkrijgbaarheid is heel erg verbeterd, onder andere vanwege het feit dat mining helemaal niet zo populair meer is als in het verleden.

20 September 2022 kwam dan eindelijk de keynote met nieuws waar mensen al een tijd op hadden zitten wachten. De nieuwe ADA Lovelace kaarten zouden eraan komen. De eerste kaarten die bekend werden gemaakt waren de RTX 4090, de RTX 4080 16GB en de 4080 12GB… De 4090 kwam uiteindelijk op 12 oktober uit en de 4080 16GB kwam uit in November. De 12GB versie werd later geschrapt en “omgedoopt” tot de RTX 4070 Ti. Dit vanwege het feit dat, ook al hadden de twee kaarten dezelfde naam, de kaarten compleet verschillende specificaties hadden. Dit was veel te verwarrend voor de consument en daar kwamen dus enorm veel klachten over.

Naast de kaarten die door de verschillende fabrikanten gemaakt worden heeft NVIDIA ook een eigen variant van deze kaart. Het grootste probleem is, dat deze kaart maar op één plek te koop is voor Nederland. Dit is bij een Duitse webwinkel waar de kaart zo nu en dan verschijnt, al is hij makkelijker te kopen dan in het verleden.De kaart had een introductieprijs van maar liefst €1969 maar deze prijs is inmiddels heel erg gezakt naar €1769,-. Dit is al snel €200,- minder dan in het begin. Maar wat krijg je nu precies met de aankoop van deze kaart? We gaan het zien in deze review.

Laten we eens kijken wat Ada Lovelace precies in houdt.

Eerst werpen we een blik op de chip zelf. Deze belooft namelijk heel wat. Zo bevat de nieuwe GPU maar liefst maximaal 76 miljard transistoren. Dit komt voornamelijk door het 4N procedé van TSMC. De 30-serie maakte gebruik van het 8nm procedé van Samsung. Door het kleinere procedé kunnen er op een kleiner oppervlak net zoveel transistoren geplaatst worden of meer stuks op een zelfde oppervlak. De chip moet zuiniger zijn, efficiënter en uiteraard veel sneller. De kaart komt volgens NVIDIA met nieuwe Streaming Multiprocessors, een nieuwe generatie RT Cores EN Tensor Cores en een verbeterde versie van DLSS.

De chip is gebouwd rondom 12 GPC’s wat de afkorting is voor Graphics Processing Clusters. Elke GPC bestaat weer uit een Raster Engine, 6 TPC’s en 16 ROP’s. Gaan we hier nog verder op inzoomen dan heeft elke TPC 2 SM’s (Streaming Multiprocessors) en een Polymorph engine. Per kaart wordt bepaald hoeveel van deze GPC’s actief zijn. De opbouw van een Streaming Multiprocessor is redelijk gelijk gebleven aan de vorige generatie. Per SM zijn er 4 clusters. Ieder cluster bevat 32 CUDA cores en één Tensor core. Daarnaast is er een RT core beschikbaar per SM. Hoeveel cores er uiteindelijk nu actief zijn wordt per kaart bepaald. De 4090 heeft 11 GPC’s ingeschakeld terwijl de 4090 Ti wellicht de beschikking krijgt over alle clusters.

Een van de belangrijkste verbeteringen is de manier waarop de rekenkracht gebruikt wordt van de GPU. In plaats van willekeurig alles door elkaar te gaan verwerken maakt Ada Lovelace gebruik van Shader Execution Reordering oftewel SER. Hierdoor worden taken gegroepeerd aangeboden in plaats van door elkaar. Aangezien een pakket van dezelfde taken makkelijker verwerkt wordt dan wanneer alles door elkaar zit worden de taken ook sneller afgehandeld. Het sorteren van de data kost ook wel wat performance maar de winst is veel en veel groter, vooral bij raytracing taken.

Met DLSS3 wilt NVIDIA ook winst behalen met het gamen op hogere resoluties. Dit doet men door te kijken naar de informatie van het vorige en huidige beeld en op die manier niet alleen het beeld te verbeteren maar zelf een compleet nieuw frame te genereren. Dit heet, hoe kan het ook anders, Frame Generation. Hiervoor wordt niet alleen gebruik gemaakt van upscaling maar ook van een techniek genaamd Optical Flow Accelerator, iets wat in de GPU ingebakken zit. Let wel: deze techniek maakt geen toekomstige frames aan maar zet frames tussen de vorige en huidige frame in.

Mocht je meer willen lezen dan verwijs ik je graag naar de pagina van NVIDIA

Terug naar boven

We gaan eerst even door de saaie cijfers voordat we de kaart erbij gaan pakken.

De RTX 4090 maakt gebruik van de AD102 GPU, op het moment van schrijven de meest krachtige chip die er te krijgen is van NVIDIA. Deze chip is gemaakt op 5 nanometer terwijl de voorganger gemaakt werd op het 8nm procedé. Dit betekent dat er meer transistors hun weg kunnen vinden op de chip wanneer deze net zo groot is. We gaan van 28 miljard naar 76,3 miljard transistors terwijl de oppervlakte kleiner wordt: van 628 naar 608mm2… De AD102 bevat maximaal 12 GPC’s waarbij er bij de 4090 éénniet beschikbaar is zodat we er 11 over houden. Dat betekent dat we in het geval van de 4090 16384 Cuda-cores hebben, 512 Tensor-cores en 128 RT-cores. De baseclock van de kaart ligt op 2230 MHz terwijl de boostclock op 2520 MHz zit. Verder heeft de kaart de beschikking over 24 Gigabyte GDDR6X geheugen wat geklokt is op 21 GBit/s, hetzelfde als op de 3090. De TDP van de kaart ligt volgens de specificaties op 450 Watt maar het verbruik kan veel hoger liggen. Er wordt niet voor niets een voeding aangeraden van 850 Watt. Bij deze kaart wordt wederom een verloopkabel geleverd . Dit is echter een ander verloop aangezien er gebruik gemaakt wordt van een nieuwe connector, daar later meer over.

Wil je meer informatie, kijk dan op de internetpagina van NVIDIA.

Terug naar boven

We hebben de saaie tekst bekeken, het is nu tijd om te kijken naar de enorme doos die we binnen hebben gekregen.

In alle werkelijkheid: de doos van de 4090 Founders Edition is gigantisch. Deze doos zit eerst in een simpele bruine doos die hier niet op de foto staat. Maak je deze doos open dan komt de zwarte doos tevoorschijn. Aan de voorkant zien we de naam van de kaart staan terwijl aan de achterkant van de doos de specificaties te vinden zijn, de support regels, de inhoud van de doos en de links naar de support desk. Aan beide zijkanten van de doos zit een sticker waarmee de doos dicht zit. Deze sticker bevat een strip die los getrokken kan worden. Is deze los dan kan het bovenste gedeelte naar achteren geklapt worden. Het is wel goed te zien aan de zijkant dat de doos gemaakt is van karton en hier is niet op bezuinigd. Je wilt uiteraard niet dat je kaart van €1800,- in stukken aan komt. In de doos zien we dan de videokaart liggen.

Halen we de kaart uit de doos dan zien we daar een lipje uitsteken. Dit lipje wordt gebruikt om een binnendoosje uit de grote doos te trekken. In dit doosje zit de nieuwe adapter die NVIDIA levert voor de 40-series videokaarten. Tevens zit er een schrijven bij hoe het een en ander aangesloten moet worden op de videokaart. Over het algemeen spreekt dit voor zichzelf maar soms is het beter als het nog een keer uitgelegd wordt. De adapter die geleverd wordt is geen kleine jongen en zeker niet makkelijk weg te werken. Deze videokaart heeft maar liefst 4 PCI-e 8-pins connectoren nodig. De andere kant bevat een 12-pins stroomconnector die op de 30-series kaarten ook gebruikt werd, echter zitten er ook 4 “sensepins” in verwerkt. Deze pinnen herkennen de kaart en geven op deze manier door hoeveel Watt de videokaart maximaal tot zijn beschikking heeft. In het geval van deze kaart is het maar liefst 600 Watt, een behoorlijk hoog aantal. Daarom is het sowieso verstandig vier losse kabels te gebruiken en niet de “pigtails” voor het doorlussen van aansluitingen.

Als we dan naar de kaart gaan kijken dan heeft deze ongeveer hetzelfde ontwerp als de Founders Edition kaarten uit de 30-serie. Hij heeft alleen aan fitness gedaan. De printplaat van de kaart zelf is niet al te groot maar het koelblok is echt gigantisch te noemen. De kaart is ook maar liefst 3 sloten dik en sommige AIB kaarten gaan daar nog eens overheen. Dat deze kaart onderdeel is van de Founders familie betekent dat het kleurenschema ook hetzelfde is: zwart met aluminium delen. Ook hier heeft NVIDIA gekozen voor diagonale koelvinnen om de warmte zo goed mogelijk af te voeren van de chip en het geheugen. De kaart heeft standaard geen kleur aan boord maar we zullen later zien dat de kaart toch een RGB element aan boord heeft.

De voorkant van de kaart heeft één ventilator. Dit lijkt vreemd maar er zijn meer ventilatoren verstopt. Deze variant trekt koele lucht aan en blaast dit door het blok heen zodat de warmte afgegeven wordt aan de buitenlucht. De rechterkant van het blok heeft alleen maar koelvinnen. Kijk je hier doorheen dan zie je aan de andere kant de tweede ventilator zitten die moet zorgen dat het geheel een normale bedrijfstemperatuur heeft.

Aan de boven- en onderkant van de kaart zien we in het midden de uiteindes van de koelvinnen. Een gedeelte van de lucht kan hierdoor ook ontsnappen. Het meest opvallende aan deze kant van de kaart is de voedingsconnector. Dit is niet de standaard 8-pins PCIe connector en ook niet de 12-pins connector die op de 30-series kaart gebruikt werd. Er is een nieuwe connector genaamd de 12vhpwr connector. Deze heeft inderdaad dezelfde 12 pinnen voor de voeding maar er zijn vier sense pins aan toegevoegd. Deze pinnen moeten er voor zorgen dat de kaart kan beschikken over voldoende stroom. (Overigens is deze connector in Juli 2023 aangepast omdat er problemen zouden zijn met de sense pins). Helemaal rechts zien we de tekst “Geforce RTX” staan. Dit is geen print maar dit is de enige verlichting die op de kaart aanwezig is.

De achterkant heeft vanuit de fabrikant een backplate mee gekregen. Hierop staat vermeld welke kaart je precies in je handen hebt, mocht je dit niet meer weten aan de hand van de grootte en het gewicht van de kaart. Deze doet niets voor de warmte afvoer maar houdt de componenten uit het zicht. De rechterkant bevat de tweede ventilator die op de kaart zit. Deze is andersom geplaatst zodat hij warme lucht uit de kaart kan trekken en dit af kan geven aan de lucht. Als je door de ventilator kijkt dan zie je geen PCB zitten maar alleen maar de andere kant van het bureau.

Werpen we een blik op de achterkant waar de aansluitingen zitten. Daar vinden we vier stuks: drie Displaypoort 1.4a connectoren en één HDMI 2.1 connector. Dit is gelijk gebleven aan de vorige generatie. Op zich jammer om te zien dat er niet gekozen is voor de nieuwe DP 2.0 standaard. Deze is al een tijdje uitgebracht maar men heeft ervoor gekozen deze niet te gebruiken. Nu is het wel zo dat er nog geen apparaat is dat gebruik maakt van Displaypoort 2.0 maar wat niet is kan nog komen. Gelukkig is er wel HDMI 2.1 wat moet zorgen voor voldoende bandbreedte om 8K weer te geven.

Als hij dan eenmaal is aangesloten laat de kaart ook nog iets van verlichting zien. Dit is vrij subtiel uitgevoerd, namelijk alleen het GEFORCE RTX logo wat wit weergegeven wordt. De kleur hiervan is aan te passen via de software van Corsair genaamd iCue. Maar andere pakketten zoals Signal RGB kunnen ook de verlichting aanpassen, mocht je geen software van Corsair willen gebruiken.

Terug naar boven

Tijdens de vorige generatie videokaarten merkten we dat de Ryzen 3000 processor steeds meer een bottleneck begon te vormen voor het benchmarken. Het was een mooie middenmoter processor maar het gebeurde meer dan eens dat de resultaten afhankelijk waren van andere onderdelen. Om dit tegen te gaan zijn we tijdens de voorbereiding gewisseld naar een nieuw platform in de vorm van een Core i9 12900K op het Z690 platform. Dit moet voor nu even voldoende zijn om te zorgen dat games maximaal kunnen presteren (al is dat altijd de vraag met nieuwe generaties videokaarten). Tevens hebben we het testveld wederom onder handen genomen en zijn er benchmarks verdwenen en bijgekomen. We hebben daarom oudere kaarten getest op het nieuwe platform om een vergelijking te kunnen maken. Het nieuwe platform bestaat uit de volgende onderdelen:

  • Intel Core i9 12900K
  • Gigabyte Z690 Aorus Pro moederbord
  • 2 x 16 GB Kingston Fury Beast KF552C40BBK2-32 geheugen
  • NZXT Kraken X73 360mm AIO waterkoeler
  • Kingston Fury Renegade SSD 1TB SSD
  • Cooler Master Test Bench V2
  • Be Quiet Dark Power Pro 1000 Watt voeding
  • Windows 11 Professional NL 64-bit
  • AOC U2879VF 4K monitor

Hieronder vinden we een lijst met de reeds geteste kaarten en de bijbehorende driver versies. Deze versies proberen we wel zoveel mogelijk gelijk te houden maar dat lukt helaas niet altijd doordat er nieuwere versies van drivers uitkomen voor nieuwe kaarten.

De tests zijn 3 keer uitgevoerd en er is een gemiddelde genomen van de resultaten om eventuele pieken of dalen uit de resultaten te filteren. Mochten er afwijkingen zijn dan zijn de benchmark nogmaals uitgevoerd. Let wel op dat de resultaten zoals hieronder vermeld staan niet overeen hoeven te komen met jouw tests. De resultaten kunnen per systeem verschillen en zelfs per videokaart.

Synthetische Benchmarks

We beginnen de tests met een paar bekende: 3D Mark en Superposition. Tevens testen we Raytracing met de Port Royal test. Deze behoort tot het pakket van 3D Mark en is hiervoor speciaal ontwikkeld. Nieuw in het assortiment is Speedway. Deze test is ontwikkeld door verschillende partijen om echt het maximale uit een videokaart te halen. Speedway demonstreert wat er allemaal mogelijk is met de nieuwe DX12 API gecombineerd met Raytracing. Aangezien AMD ook steeds beter overweg kan met deze techniek zijn de 6000 series kaarten ook getest.

Zoals verwacht komt de 4090 bovenaan de grafieken te staan. Het verschil met de snelst getest kaart hier, de 3080, is echt enorm. Dit laat wel zien waarom deze kaart echt het beste is wat er op het moment te krijgen is. In Fire Strike is het verschil 50% maar gaan we kijken naar de GPU score dan is het verschil veel groter. In de Ultra test is het verschil bijna het dubbele. Hetzelfde beeld zien we bij Time Spy. Kijken we naar de GPU score van Time Spy Extreme dan zien we gewoon een verdubbeling van de score terug. Port Royal laat zien wat voor stap er is gezet in Raytracing. De kaart is meer dan twee keer zo snel als een 3080. Ook in Speedway, de nieuwste test, is de 4090 bloedsnel. Overigens zien we dezelfde prestatiewinsten in Superposition. Vooral in de zwaardere tests is de kaart gewoon meer dan twee keer zo snel als een 3080 kaart.

1920 x 1080

Nu we deze twee testprogramma’s hebben gehad is het tijd om te schakelen naar wat echte spellen. Alle spellen die we hier gebruiken hebben een ingebouwde benchmark waardoor het makkelijker is om de videokaarten naast elkaar te leggen. Zo is er een mix van spellen die goed uit de verf komen bij NVIDIA en een aantal games die het beter doen op een Radeon kaart. We trappen de reeks af met de Full HD resultaten. Ook al begint deze resolutie heel langzaam terrein te verliezen aan QHD, het is nog steeds de meest gebruikte in het veld met een percentage van 62%. 13% speelt op QHD. De Full HD resolutie laat wel een paar bijzondere dingen zien. De 4090 staat NIET altijd bovenaan, iets wat je wel zou verwachten van een videokaart die meer kost dan de rest van de computer. Over het algemeen is dat (gelukkig) wel het geval maar kijken we naar Cyberpunk op de Medium instelling dan is zelfs een 3080 sneller. In F1 2022 zien we dat een 3060 Ti nog sneller is. Voor een deel komt dit echt door de CPU bottleneck die aanwezig is, zelfs met een 12900K processor. De kaart wacht dus op input van de processor. Zodra de kwaliteit omhoog geschroefd wordt is de kaart in alle benchmarks sneller. Uitzondering op dit resultaat is toch wel Far Cry 6. De kaart komt daar gewoon niet uit de verf. De reden is helaas onbekend.

2560 x 1440

Tijd om te kijken naar de resolutie die een opmars aan het maken is: QHD. Daar weet de kaart wel zijn spierballen te tonen door in bijna alle benchmarks bovenaan te staan. Bij F1 2022 op Medium heeft de kaart het nog lastig. Daar komt hij niet in de buurt van de AMD 6900 XT maar dat komt omdat F1 gemaakt is voor AMD videokaarten. Pas wanneer de resolutie flink omhoog geschroefd wordt of Raytracing aangezet wordt weet de 4090 zijn toppositie terug te pakken. Ook bij deze resolutie heeft de 4090 het lastig in Far Cry 6. In de rest van de grafieken staat de kaart ruim bovenaan. Het kost wat maar dan heb je ook wel wat.

3840 x 2160

En wat laat de 4K resolutie dan voor scores zien? Nou, eigenlijk hetgeen je mag verwachten van deze kaart. Overal staat de kaart bovenaan. Soms met een “kleine” marge maar meer dan eens met een verdubbeling ten opzichte van de nummer 2. Zelfs Metro Exodus is soepel te spelen in Ultra met 78 FPS, iets wat eerder niet echt mogelijk was. Daarbuiten zijn alle scores boven de 100 FPS wat enorm indrukwekkend is. Helaas was er geen tijd om spellen te testen op 8K resolutie anders hadden die wellicht ook leuke scores weten neer te zetten. Deze kaart is echt bedoeld om spellen op de maximale instellingen te spelen zonder haperingen.

Terug naar boven

Tegenwoordig levert NVIDIA software bij zijn drivers. Dit is genaamd “GEFORCE Experience”. Er is tijdens de installatie een keuze te maken of alleen de driver geïnstalleerd moet worden of dat je ook het pakket mee wilt installeren. Met dit pakket is het mogelijk instellingen te optimaliseren voor jouw computer, stuurprogramma’s bij te werken of te streamen naar je NVIDIA Shield apparaat. Het eerste scherm laat meteen een overzicht zien van de verschillende spellen die geïnstalleerd zijn op de machine.

Ga je met de muis over één van de applicaties of spellen dan is daar een knop te zien waarmee het programma te starten is en een knop waarmee de details van een spel te zien zijn. Onderin zijn de huidige instellingen te zien en de aanbevolen instellingen. Aan de rechterkant van het scherm komt dan ook een knop te staan waarmee in één keer alle aanbevolen instellingen toegepast kunnen worden.

Klik je linksboven op de pijl dan komt er een balk tevoorschijn met alle geïnstalleerde spellen op de machine. Zo is het mogelijk snel te wisselen tussen de verschillende applicaties, wel zo handig.

In het volgende tabblad kun je nakijken of er een nieuwe versie is van het stuurprogramma. Aanbevolen wordt de nieuwste versie te installeren. Dit kan best een behoorlijke winst opleveren in een spel of applicatie. (Al kan het ook zijn dat een stuurprogramma voor problemen gaat zorgen). Als er een nieuwe versie beschikbaar is dan kan hij ook meteen gedownload worden. Verder staan er een paar nieuwsfeitjes in het scherm.

Klikken we rechtsboven op het tandwieltje dan zien we een optiescherm tevoorschijn komen. Hier zijn vier tabbladen te zien die we even kort gaan doornemen. Het eerste scherm bevat informatie over het systeem, de software versie, de taal, een overlay die ingeschakeld kan worden en een aantal functies die beschikbaar zijn binnen de software.

Het volgende tabblad bevat wat informatie over het NVIDIA account. Het is jammer dat voor deze software een account nodig is maar dit is zo aangemaakt. Mocht je informatie willen bewerken dan kan dit door op het potlood icoontje te klikken.

Het tabblad Games en Apps laat het aantal Games of Apps zien wat op dat moment geïnstalleerd is. Mochten er een aantal ontbreken dan is het mogelijk om zelf een locatie toe te voegen waar de software moet gaan zoeken naar nieuwe spellen. Tevens kan hier ingesteld worden dat de GEFORCE Experience de nieuw toegevoegde games automatisch optimaliseert voordat deze gestart worden.

Als laatste is het nog mogelijk om spellen naar een aanwezig NVIDIA Shield apparaat te streamen. Natuurlijk moet deze wel zichtbaar zijn in het netwerk anders gaat het nog niet werken. Mocht je hier een spel missen dan kan deze ook weer toegevoegd worden. Zo hoef je niet op elk scherm een pc gekoppeld te hebben om maar een spel te kunnen spelen. Helaas was er voor deze review geen Shield beschikbaar.

Terug naar boven

Het overklokken van hardware wordt door veel enthousiastelingen nog gedaan. Het is een goedkope manier om meer performance uit je hardware te kunnen halen. Uiteraard is dit niet geheel zonder risico. Je zoekt namelijk de grens op van wat de hardware aan kan en veel fabrikanten hebben in de garantie voorwaarden opgenomen dat overklokken niet gedekt wordt door de garantie. Wel is het zo dat overklokken steeds vaker deels automatisch gaat. NVIDIA heeft hiervoor GPU Boost ontwikkeld. De kloksnelheden worden aangepast aan de bedrijfstemperatuur van de kaart. Is deze lager dan zal de software de kloksnelheid automatisch verhogen wanneer het nodig is. Het overklokken van een kaart wordt niet door de software van NVIDIA ondersteunt maar er zijn andere programma’s voor zoals MSI Afterburner. Hiermee kun je verschillende instellingen aanpassen zoals de kloksnelheid, geheugensnelheid en voltages. Hoe lager het voltage, hoe lager de temperatuur. Maar hier geldt ook: als deze te laag wordt voor de kaart stopt de kaart met werken. Het is echt zoeken naar de juiste instellingen. De waardes kunnen uitgelezen worden door een tool genaamd GPU-Z van TechPowerUp.

Nadat de basis bepaald is kunnen we met Afterburner het een en ander gaan aanpassen. Helaas was bij deze versie het niet mogelijk de Core Voltage aan te passen omdat er een issue was met de maker van het programma (deze was niet in dienst van MSI maar maakte de basis van deze en andere tools). De overige sliders zijn allemaal aan te passen maar het is niet verstandig in het wilde westen aanpassingen te maken. Ook kan je een waarde invullen in het vak. Het is wel belangrijk te weten dat deze waarde opgeteld wordt bij de bestaande waarde. Dit is dus niet de nieuwe waarde! We verhogen het power limit met 33% aangezien de koeling van de kaart meer dan voldoende is. Na een hoop testen en spelen komen we uit op een overklok van 220 MHz wat bijna 10% hoger is. Het geheugen weten we over te klokken met 1480 MHz maar let wel dat we het hier hebben over GDDR6X. Effectief is het 185 MHz wat door de werking van het geheugen x8 gedaan wordt. Toch is dit een overklok van 8,7%.

Dit zijn leuke cijfers maar wat levert het nu op in de praktijk? In Time Spy gaan we van 31339 naar 32205 punten. Dit is een winst slechts 2.73%. Dit kan deels te maken hebben met de processor. Kijken we naar de GPU scores dan is de nieuwe score 37360, een stijging van 3,8%. Toch niet zo spectaculair als we gehoopt hadden. In Extreme zijn de stijgingen 4,5 en 6,5%. Dit is al wat beter te noemen en maakt het overklokken wat interessanter. In Port Royal behalen we een winst van 7,2% weer wat beter te noemen is en dat voor een Raytracing benchmark. Kijken we naar games dan gaan we in Assassin’s Creed Valhalla van 113,3 naar 129,7. Toch een winst van 16 FPS, ruim 14%. In Cyberpunk op maximale instellingen stijgen we van 80,8 naar 85,3. Dit is al wat minder heftig te noemen namelijk maar 5,6%. Of dit echt de moeite waard is laat ik over aan jou.

Terug naar boven

Aan het einde van de review kijken we nog even naar de temperaturen en het verbruik van deze kaart. De 4090 is de beste kaart die er op dit moment te krijgen is dus verwacht je dat de temperaturen behoorlijk hoog liggen. Daarentegen is de kaart al 3 sloten dik wat te danken is aan de dikke koeler die op de kaart zit. Dat zou moeten helpen de temperaturen omlaag te krijgen. Het is dus maar de vraag wat de kaart gaat doen. En niet alleen de kaart… een deel van de warmte wordt ook de kast in geblazen als je het ontwerp van de koeler ziet. Wel iets om rekening mee te houden.

Als de machine niets aan het doen is behalve het tonen van het beeld dan wordt de kaart ongeveer 38 graden. Dat is redelijk in lijn met de rest van de kaarten die eerder getest zijn. De ventilatoren op de kaart doen helemaal niets op dat moment. Ga je naar de waardes van alle geteste kaarten kijken dan is dit wel de laagst gemeten temperatuur. Als we de kaart aan het werk zetten met Furmark dan stijgt de temperatuur naar slechts 64 graden. En ook al lijkt dat veel, de kaart komt ergens onderin de lijst terecht. De 6900XT wordt maar liefst 79 graden, 15 graden verschil. Toch een temperatuur die je niet verwacht bij een kaart als deze. Overigens draait de ventilator niet harder dan 1400 toeren per minuut. Daarmee draait deze ventilator helemaal niet snel. Het geluidsniveau is ook vrij laag daarbij. De ventilatoren maken maar herrie met een geluidsdruk van 42,5 dBa. Dat is echt behoorlijk laag te noemen.

Pakken we het verbruik van het geheel nog mee. Om dit te meten hebben we bij de stekker het verbruik gemeten van de computer middels een Voltcraft Energy Check 3000. Daarmee wordt dus ook het moederbord, geluidskaart, waterkoeler, toetsenbord en muis meegenomen. In rust verbruikt de complete computer maar liefst 71.8 Watt. Dit is het hoogste wat we in de diverse tests gemeten hebben. Het verschil met een 3080 is echter niet zo groot. Het verbruik van de kaart zelf ligt daarbij op 9,4 Watt. Gaan we de kaart dan vol belasten met Furmark dan stijgt het verbruik naar maar liefst 545 Watt waarvan 446,3 Watt toe te wijzen is aan de videokaart. De nieuwe connector is dus echt nodig hiervoor. Wanneer de kaart overgeklokt is en we draaien dan Furmark dan stijgt het verbruik naar 701 Watt waarvan 587 Watt toe te wijzen is aan de videokaart. Dat is echt een serieus verbruik, ook al is dit een extreme test. Bij Doom bijvoorbeeld komt het verbruik niet boven de 500 Watt waarvan 340 Watt gebruikt wordt door de GPU. Ja, het is veel maar over het algemeen kan het veel erger.

Terug naar boven

Als je dit leest en je hebt de rest van de tekst ook gelezen: hulde! Deze review is zeker niet een van de kortste die ik geschreven heb. Maar het is tijd om de conclusie te trekken van dit vlaggenschip van NVIDIA. Wat krijgen we precies met deze kaart in handen? Ondanks dat de mining hype voorbij is is deze kaart niet altijd op voorraad. Bovendien is deze kaart in de afgelopen tijd al een paar keer verlaagd in prijs. Dit heeft deels te maken met het feit dat de koersen gunstiger zijn geworden maar van de andere kant zijn de kaarten minder interessant dan een paar jaar geleden, mede vanwege de enorm hoge prijs. Verkrijgbaarheid is nog steeds een ding overigens. De kaart is op het moment niet te koop meer maar komt zo af en toe weer in de verkoop.

Over de prestaties van deze kaart kunnen we vrij kort zijn. De 4090 weet alle overige kaarten in ons testveld omver te blazen. Dit is op het moment van schrijven de beste kaart die op de markt te krijgen is. Wel is het zo dat de kaart soms het onderspit moet delven op de Full HD resolutie en Medium prestaties maar dat komt meer door de processor dan door de kaart. De kaart moet namelijk wachten op instructies van de processor. In 4K gaming weet de kaart gehakt te maken van elke kaart die er op het moment te krijgen is. Dat mag ook wel voor het geld wat er voor deze kaart neergeteld moet worden. Het betekent overigens wel dat de kaart de komende jaren nog voldoende speelplezier kan brengen. Ook met onze Raytracing tests weet de kaart topprestaties neer te zetten.

Over het uiterlijk kunnen we vrij kort zijn. De kaarten zien er strak uit zonder al teveel poespas. Geen overdreven kleuren of zo maar een zwart uiterlijk met aluminium en grijze elementen. Er is RGB verlichting aanwezig op de kaart maar dit is beperkt tot het GEFORCE RTX logo. Nu vind ik dit persoonlijk niet erg want ik houd wel van een strak uiterlijk maar er zullen mensen zijn die van meer variatie houden. De verlichting is standaard in het wit uitgevoerd maar er zijn programma’s om de verlichting aan te sturen, mocht je dat willen. Wat een redelijk minpunt is: men heeft WEER een nieuwe connector geplaatst op de kaart. De 30-series had al een nieuwe connector en nu is er weer een andere versie. NVIDIA levert wel een adapter bij de kaart maar dit staat een stuk minder mooi. Er moeten namelijk 4 PCI-e kabels naar de adapter toe wat het uiterlijk van de computer niet ten goede komt. Gelukkig hebben nieuwe voedingen wel de juiste connector en wellicht heeft de fabrikant van jouw voeding wel een eigen kabel voor deze nieuwe aansluiting.

Het is mogelijk om de prestaties van deze kaart nog wat te verbeteren door de kaart te overklokken. Nu is het te begrijpen dat je een kaart met dit prijskaartje niet kapot wilt maken maar gelukkig zitten er steeds meer beveiligingen in. Tijdens het overklokken kregen we de kaart 10% hoger en het geheugen bijna 9%. Effectief levert het minder op: tussen de 3 en 7%. Kijkende nara de temperaturen doet de kaart het erg leuk. Standaard wordt de kaart 38 graden en bij volledige belasting slechts 64 graden. Daarbij is de kaart ook nog best stil. Het kan hoger: als de kaart overgeklokt is komt de temperatuur uit op 79 graden in Furmark. Maar ook dit kan de kaart prima hebben. Het verbruik ligt daarentegen wel hoog. Normaal verbruikt het hele systeem maar 72 Watt maar bij volledige belasting stijgt dit naar maar liefst 545 Watt. Met een overklok gaat deze waarde naar maar liefst 701 Watt! Een degelijke krachtige voeding is met deze kaart zeker aan te raden!

Mocht je het beste van het beste in huis willen halen, geld geen rol spelen en stroomverbruik je niet interesseren, dan haal je voor bijna €1800,- een prima kaart in huis!

Mocht je op- en/of aanmerkingen hebben of iets te vragen, dan hoor ik het uiteraard graag. Mocht je dit een leuke review vinden, dan hoor ik het dit natuurlijk ook graag. Het motiveert mij om nog meer reviews te maken.

Terug naar boven

Wat vind jij?

Vlammend
0
Tof
0
Heet
0
Meh
0
Nope
0

You may also like

Leave a reply

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

More in:Videokaarten