Videokaarten

Gigabyte GeForce RTX 3080 Gaming OC 10GB review

De tweede generatie RTX kaarten zijn ondertussen al een tijdje op de markt. Eigenlijk zou men in Maart 2020 tijdens de GTC conventie al iets laten zien van de kaarten uit de 3000 reeks maar helaas gooide het wereldwijde probleem roet in het eten. Daarna was er de herkansing op Computex 2020 maar ook die werd geannuleerd. Uiteindelijk maakte NVIDIA de nieuwe kaarten bekend tijdens een online persconferentie op 1 September 2020 die voor iedereen te zien was via het internet. Daar waren dan de langverwachte RTX 3080 en 3090 kaarten. In één klap was de prijzige RTX 2080Ti kaart niet zoveel meer waard als een maand daarvoor.

Zoals de meeste fabrikanten heeft ook Gigabyte niet stilgezeten. Na deze aankondiging heeft men heel snel eigen kaarten gemaakt die gebaseerd zijn op het referentie model van NVIDIA. Dit zijn kaarten met een andere koeler en hogere kloksnelheden, maar wel gebaseerd op het ontwerp wat NVIDIA heeft gemaakt. Op het moment van schrijven heeft men maar liefst 12 verschillende RTX 3080 kaarten op de markt gezet. Zo zijn er de Vision kaarten met een wit uiterlijk, de Aorus kaarten met de gamer look en ook de Waterforce kaarten mogen niet ontbreken. Dit zijn kaarten die vanuit de fabriek voorzien zijn van waterkoel mogelijkheden: zowel met een radiator als bedoeld voor een custom loop.

Het onderwerp van vandaag is de GeForce RTX™ 3080 GAMING OC 10G kaart. De kaart moest ongeveer €790 kosten maar heeft die prijs nooit gekregen. Al snel gingen de prijzen flink omhoog en daalde de beschikbaarheid. Ondertussen mag je blij zijn als je al een RTX 3080 videokaart kunt bemachtigen voor een schappelijke prijs, want er zijn nog steeds enorm veel wachtrijen voor welke kaart dan ook. Maar mocht je toch deze kaart weten te bemachtigen, wat krijg je dan eigenlijk? We gaan het zien in deze review.

PS: we kijken dus niet meer naar prijs/kwaliteit maar puur naar wat de kaart kan. De prijs is namelijk wat de gek er voor geeft.

  • Terug naar boven
  • Laten we eerst eens kijken wat Ampere eigenlijk brengt.

    Met de komst van de Ampere generatie heeft NVIDIA verbeteringen aangebracht ten opzichte van de Turing architectuur. Wat je veel hoort op dit moment is dat de Ampere chip is geworden wat de Turing chip had moeten zijn. Met Ampere is er een nieuwe opbouw van de Streaming Multiprocessor. Hierin zijn de verschillende cores in verwerkt. Dit zijn de 2e generatie RT cores (deze zorgen voor de Raytracing actie) en de 3e generatie Tensor Cores. Verder is er gebruik gemaakt van GDDR6X geheugen maar is dit vooralsnog alleen terug te vinden op de 3080 en 3090 kaarten. Wellicht dat er in de toekomst nog meer kaarten gebruik gaan maken van dit geheugen.



    Boven Turing, onder Ampere

    Het verschil tussen de twee Streaming Multiprocessors is dat bij de Turing generatie het ene gedeelte alleen FP32 berekeningen aan kon en de andere alleen maar INT32 in behandeling nam. Bij Ampere is dit veranderd. Daar is de sectie van alleen de INT32 aangepast zodat deze sectie ook, indien nodig, FP32 berekeningen kan uitvoeren. Daarmee kunnen per tik OF 32 FP32 berekeningen uitgevoerd worden OF 16 FP32 en 16 INT32 berekeningen. Verder zijn er in plaats van twee Tensor cores maar 1 Tensor core aanwezig. De snelheid van deze core is echter wel verdubbeld zodat de snelheid per SM wel gelijk blijft. Het aantal RT-cores is gelijk gebleven, namelijk 1. Maar deze core is wel flink verbeterd ten opzichte van de eerste generatie.

    Zoals te zien is in bovenstaand overzicht hebben de Ampere kaarten de beschikking tot veel meer cores dan de “oudere” Turing kaarten. De RTX 3090 weet het zelfs te presteren om meer dan 10000 Cuda-cores op de chip te hebben. Daarentegen zijn er wel minder Tensor-cores aanwezig maar deze zijn qua snelheid verdubbeld ten opzichte van de voorganger, zodat ook hier vooruitgang is. Qua RT-cores hebben de Ampere kaarten er weer meer aan boord. Wat ook op valt is dat de snelheid van het geheugen bij de 3080 en 3090 kaarten lager ligt dan bij de andere kaarten. Dit komt omdat de kaarten gebruik maken van GDDR6X chips die de PAM4 (pulse amplitude modulation) techniek gebruiken. Hierdoor kan het geheugen twee bits per keer versturen waardoor dit geheugen uiteindelijk sneller klokt dan de gewone GDDR6 chips en ligt de bandbreedte ook veel hoger. Dat is ook wel nodig bij de hogere snelheden van de Ampere kaarten. Het TDP van de kaarten is wel toegenomen waardoor een iets zwaardere voeding zeker aan te raden is.

    De 3090 kaart is ook de eerste videokaart die 8K gaming aan moet kunnen. Om dit ook te kunnen tonen moet de aansluiting het ook kunnen versturen. Daarom zijn er HDMI 2.1 poorten aanwezig op de kaarten die 8K resolutie in 60Hz kunnen weergeven. Uiteraard moet de aansluiting van het scherm ook overweg kunnen met HDMI 2.1 anders gaat het alsnog niet werken. Er zijn nog meer dingen geïntroduceerd zoals NVIDIA Reflex, NVIDIA Broadcast en NVIDIA Studio maar daar ga ik hier niet verder op in. Mocht je meer willen lezen dan verwijs ik je graag naar de pagina van NVIDIA

  • Terug naar boven
  • Voordat we de kaart echt gaan bekijken, pakken we eerst de theorie er eens bij.

    Zoals bij elke RTX 3080 kaart is ook deze kaart voorzien van de GA102-300 chip. De kaart is voorzien van 8704 Cuda-cores, 272 Tensor-cores en 68 RT-Cores. De standaard kloksnelheid van deze kaart ligt op 1440 MHz terwijl de boost clock op 1800 MHz ligt. Uiteraard kan de GPU nog hoger in kloksnelheid als de temperatuur het toe laat. Het GDDR6X geheugen is geklokt op 19 GHz en kan gebruik maken van een 320-bit brede geheugenbus. Dit levert een bandbreedte van 760GB per seconde. De kaart is voorzien van drie 1.4a Displaypoort aansluitingen en twee keer een HDMI 2.1 poort. Deze kaart heeft twee 8-pins PCIe connectoren nodig om genoeg stroom zodat hij zijn werk kan doen.

    Deze Gigabyte kaart maakt gebruik van de welbekende Windforce koeler. Deze wordt al langere tijd toegepast op de standaard Gigabyte kaarten. De koeler is opgebouwd uit twee 90mm ventilatoren en een 80mm ventilator. Het aparte van dit systeem is dat de middelste ventilator in tegengestelde richting draait dan de buitenste ventilatoren. Op die manier kan de lucht niet klem komen te zitten en wordt deze netjes afgevoerd.

    Wat ook moet zorgen voor betere koeling is de hele grote koperen plaat die onder de ventilatoren zit. Deze plaat raakt zowel de GPU en de VRAM geheugenchips. Op die manier zou de kaart sneller moeten lopen. Immers: NVIDIA GPU Boost werkt beter wanneer deze componenten zo koel mogelijk zijn. Natuurlijk moeten de heatpipes er voor zorgen dat de warmte zo goed mogelijk van deze plaat weggevoerd wordt.

    Natuurlijk is ook deze videokaart voorzien van RGB verlichting. Het komt namelijk niet veel voor dat een kaart helemaal geen verlichting meer heeft. Om de verlichting aan te passen heeft Gigabyte de RGB Fusion software beschikbaar gesteld die inmiddels op versie 2 is aanbeland. Veel verlichting is er echter niet aanwezig: het blijft bij het logo op de bovenkant van de videokaart. Maar het is zeker beter dan helemaal niet.

    Wil je meer informatie, kijk dan op de internetpagina van Gigabyte

  • Terug naar boven
  • De theorie hebben we nu gehad. Tijd om eens te kijken naar wat we nu echt in handen hebben.






    De doos komt redelijk bekend voor. We treffen op de voorkant een groot oog aan. Dit is een standaard afbeelding die gebruikt wordt door Gigabyte op hun “normale” lijn van kaarten. Linksboven staat het merk terwijl rechts onderin de tekst “GEFORCE RTX” staat om aan te geven dat het gaat om een kaart uit die lijn. Links zien we een aantal van de features vermeld staan. Meer features vinden we terug op de achterkant van de doos samen met de specificaties. Maken we de doos open dan zien we een zwarte doos terug met daarop GIGABYTE vermeld. Voor de rest niets spannends dus. Maken we deze doos open dan zien we een envelop liggen. Deze bevat wellicht het minste aan accessoires wat ik in lange tijd bij een videokaart geleverd heb gezien: een quick guide en een garantiekaart. Voor de rest helemaal niets. Positief: ook geen driver cd die door niemand meer gebruikt wordt. Halen we het schuim uit de doos, dan zien we de videokaart netjes in een zak liggen.








    Wanneer we de kaart uitpakken, dan zien we een vrij strak ogende kaart. Geen vreemde kleurenschema’s, geen overdreven teksten: gewoon een redelijk neutraal zwart/grijs uiterlijk. Dit is iets wat bij steeds meer videokaarten te zien is. Aan de hand van RGB verlichting kan een videokaart toch een ander uiterlijk krijgen als je dat zou willen. Persoonlijk vind ik dit wel een stuk fijner. De kaart is aardig lang wat komt door de grote koeler die op de kaart gemonteerd zit. Ook is hij wat hoger uitgevoerd door de beugel die wat uit steekt. Daarmee zou het kunnen zijn dat de kaart niet in de kleinere kasten past. De achterkant van de kaart is voorzien van een backplate. Ook dit is iets wat steeds vaker voorkomt. Aan het uiteinde zien we een ventilatieroostertje zitten waardoor warme lucht makkelijk afgevoerd kan worden.




    De Windforce koeler is voorzien van drie ventilatoren. Twee daarvan hebben een grootte van 90mm, de andere is 80mm groot. Ook is goed te zien dat de bladen van de middelste ventilator anders staan dan van de buitenste ventilatoren. Dit om de lucht zo goed mogelijk weg te voeren van het koelblok. Ook zijn de bladen anders gevormd dat je gewend bent. Dit om de luchtstroom zo optimaal mogelijk te laten verlopen. Of dit ook daadwerkelijk effect heeft zien we later in de review terug. In het midden van de ventilatoren zien we de Gigabyte branding terug.




    Op de plek waar je normaal een Nvlink connector ziet, vinden we nu alleen een uitsparing terug in de backplate. Deze connector zien we alleen nog terug op de 3090 videokaarten. Niet zo’n ramp aangezien steeds minder programma’s en spellen SLI niet meer ondersteunen. Daarnasst vinden we zoals eerder gezegd een soort van beugel terug. Wellicht is deze aangebracht om de kaart te beschermen maar wat het doel echt is weet ik niet. Aan het andere einde zien we de PCIe connectoren terug die de kaart moeten voorzien van genoeg stroom. Deze zijn wel netjes verwerkt in een afdekplaat. Wat we ook nog zien is het enige RGB element op deze kaart: het Gigabyte logo. Voor de rest is er niets van kleur te vinden.






    De backplate hebben we eerder ook al gezien. Toch zien we een paar zaken als we er in detail naar gaan kijken. De achterkant bevat twee teksten: GeForce RTX en de naam van de fabrikant. Onder het logo vinden we een sticker met daarop de details van de kaart en het serienummer. De MLCC’s of SP-caps zijn bij deze kaart niet zichtbaar. Aan de rechterkant zien we het ventilatierooster met in mijn ogen een niet netjes afgewerkt iets. De kabels van de PCIe connectoren zijn door het rooster heen te zien. Gigabyte heeft de connectoren van het PCB verlengd omdat de koeler wat groter is. Maar de kabels zijn daarbij niet echt netjes weggewerkt. Dit is toch wel een minpunt als je je kaart horizontaal in de kast plaatst. Bij de beugel zien we nog een schakelaar zitten. De opties die hier te kiezen zijn, zijn OC en Silent. Wat er eigenlijk gebeurt is dat de kaart in Silent mode klokt naar een lagere snelheid. Daardoor wordt de kaart niet warm en hoeven de ventilatoren minder hard aan de slag. Als laatste zien we de GeForce RTX benaming nog terug op het beugeltje.

    Missen we nog één ding aan deze kaart: de aansluitingen voor de schermen. Er zijn drie Displaypoort 1.4a connectors aanwezig en twee HDMI 2.1 connectors. Deze laatste zijn belangrijk om 8K beelden weer te kunnen geven. Nu zijn het aantal apparaten dat hier gebruik van maakt amper te krijgen en betaal je er de hoofdprijs voor maar de kaart is er klaar voor.

  • Terug naar boven
  • Voor de RTX 3000 serie zijn we overgestapt naar een ander testplatform. Dit keer geen Intel (ook al wordt er gezegd dat Intel nog steeds beter is voor Gaming) maar een AMD platform. Waarom? In tegenstelling tot Z490 ondersteunt het X570 platform PCIe Gen 4. Aangezien er door NVIDIA gepusht wordt op het feit dat de 3000 serie gebruik maakt van PCIe 4.0 is het niet meer dan logisch om hier naar te wisselen. De oudere kaarten van NVIDIA zijn opnieuw getest en ook de AMD Radeon 5600XT en 5700XT zijn meegenomen. Tevens zijn de set benchmarks ook vernieuwd. Een aantal games zijn verdwenen, anderen hebben een upgrade ondergaan (neem Metro Exodus en Ghost Recon) en er zijn een paar nieuwe games bijgekomen (Forza en Borderlands). Twee van deze games ondersteunen ook de RTX technologie.

    De specificaties van het testsysteem zijn als volgt:

    • AMD Ryzen 5 3600X @ 3.8 GHz
    • Gigabyte X570 Aorus Elite moederbord
    • 2 x 8 GB G.Skill Trident Z Neo 3600 MHz C16 geheugen
    • Cooler Master ML240R RGB waterkoeler
    • Samsung 960 Evo 250 GB SSD (OS disc)
    • Kingston A2000 1TB SSD
    • Cooler Master Test Bench V2
    • Cooler Master V-series 750Watt voeding
    • Windows 10 Professional NL 64-bit
    • AOC U2879VF 4K monitor

    De videokaarten die getest zijn staan hieronder vermeld samen met de versie van de gebruikte driver op dat moment.

    Alle tests zijn 3 keer uitgevoerd en er is een gemiddelde genomen van de resultaten om eventuele pieken of dalen uit de resultaten te filteren. Mochten er grote afwijkingen zijn, dan zijn de benchmark nogmaals uitgevoerd. Let wel op dat de resultaten zoals hieronder vermeld staan, niet overeen hoeven te komen met jouw tests. De resultaten kunnen per systeem verschillen en zelfs per videokaart.

    Synthetische Benchmarks

    We beginnen de tests met een paar bekende tests: 3D Mark en Superposition. De nieuwste toevoeging bij deze benchmarks is de komst van Port Royal. Dit is een benchmark die gebruik maakt van Raytracing. Zodoende kunnen de kaarten van NVIDIA getest worden op deze “nieuwe” techniek. AMD kaarten kunnen echter niet getest worden aangezien deze geen Raytracing ondersteunen.














    [


    De Gigabyte kaart kan zich keurig meten met de andere twee 3080 kaarten dien eerder aan bod zijn gekomen. Als er dan toch een verschil is tussen twee kaarten dan is het verschil wellicht 2%. Dat kan te maken hebben met de kwaliteit van de gebruikte GPU. Immers: de ene GPU is de andere niet. Zoals al eerder gezegd: iemand met een ander sample van deze kaart kan beter scores (of minder goed).

    1920 x 1080

    Gaan we de games er eens bij pakken. Wat opvalt is dat de scores over het algemeen vrij dicht bij elkaar liggen. De 3080 staat weliswaar vaak bovenaan maar het verschil is klein. Reden: De kaarten worden te snel voor de processor waardoor de videokaart vaak moet wachten op input. Wel is te zien dat bij bijvoorbeeld Hitman de scores van de 3080 kaarten netjes bij elkaar liggen. Hetzelfde geldt voor Forza Horizon. Dit komt omdat hier de GPU scores opgenomen zijn en niet de totale score. Ook Final Fantasy is een benchmark waar het verschil goed te zien is.


























    2560 x 1440

    Schroeven we de resolutie wat op dan zien we de 3080 kaarten netjes bij elkaar staan. Het onderlinge verschil is echter niet groot en het is een kwestie van stuivertje wisselen. De ene keer is de kaart van Gigabyte de snelste, de andere keer neemt een concurrent de koppositie over. Gamen op deze resolutie is prima mogelijk, zelfs de zwaarste benchmark komt boven de 50 FPS uit.


























    3840 x 2160

    Hetzelfde beeld zien we terug in de 4K resolutie. Ook daar zitten de drie kaarten dicht bij elkaar en is het stuivertje wisselen. Er kan een verschil tussen de kaarten zitten van 2 of 3% maar of je dit verschil echt gaat merken is nog maar de vraag. Ook hier hebben andere kaarten het nakijken en is goed te zien wat de kracht is van deze gewilde kaarten. Alle tests komen met een score boven de 60 FPS behalve Metro op de hoogste settings. Deze zit op 35 FPS.


























  • Terug naar boven
  • Voor deze videokaart is ook software beschikbaar gesteld door Gigabyte.

    Dit is het Aorus Engine pakket en wordt beschikbaar gesteld op de internetpagina van de fabrikant. Het pakket is niet al te groot en kan snel gedownload worden.

    Is het pakket eenmaal geïnstalleerd dan zien we een scherm wat een beetje lijkt op GPU-Z. Er zijn in ieder geval dezelfde opties aanwezig. Zo kan de GPU boost aangepast worden, de snelheid van het geheigen en het voltage (als dit is vrijgegeven althans). Deze settings zijn op te slaan in een profiel en op een later moment weer in te laden. Rechts onderin zien we nog een optie Semi passive. Dit heeft betrekking op het feit of de ventilatoren altijd draaien of alleen als de temperatuur hoger is. Als dit aan staat, zullen de ventilatoren niets doen en zal de kaart daardoor stiller zijn. Ook zien we een LED icoon. Dit is om de RGB Fusion software te starten, daar zo meer over.

    Rechts bovenin zien we nog een tandwiel icoon staan. Wanneer hier op geklikt wordt komt er een optie scherm tevoorschijn. Hier kan gekozen worden of het programma start als de pc start en of hij geminimaliseerd start. Ook het updaten wordt in dit scherm bepaald.

    Wanneer het LED icoon aangeklikt wordt komt er de eerste keer een scherm waarin gevraagd wordt of je de RGB Fusion software wilt installeren. Als dit gedaan is komt er een scherm naar voren waarin alle apparaten staan die ondersteund worden door RGB Fusion. Als je hier aanpassingen doet aan de verlichting dan wordt het bij alle apparaten aangepast.

    Als je dan de videokaart aanklikt dan zie je iets meer opties qua verlichting komen. Dit omdat een paar opties niet ondersteund worden door het geheugen of het moederbord maar wel door de videokaart. Rechts staan de verschillende opties met daarnaast instellingen voor de kleuren, de helderheid en de snelheid. Ook deze opties kunnen opgeslagen worden in een profiel zodat deze later weer op te roepen zijn. Hieronder zien we dan de verlichting op de kaart terug. Zoals eerder gezegd: alleen het logo op de kaart is gekleurd, voor de rest niets.




  • Terug naar boven
  • Zoals eerder gemeld is de standaard kloksnelheid van deze kaart 1440 MHz met een boost naar 1800 MHz. Dat zijn de instellingen die door Gigabyte zelf ingesteld zijn. Dit zijn echter niet de maximale waardes die behaald kunnen worden op de GPU en het geheugen. Waarom doet men dit laatste dan niet zou je zeggen? Simpel: door de limieten binnen de perken te houden kan de fabrikant de levensduur van de kaart garanderen. Echter is het wel mogelijk de limieten op te rekken. Of dat veel zin heeft valt nog wel te bezien. NVIDIA maakt GPU boost steeds beter waardoor de kaart automatisch al goed overklokt. Maar handmatig overklokken levert nog meer op. Let wel: overklokken is geheel op eigen risico. Gaat de kaart kapot door het overklokken, dan kan het zijn dat men geen garantie meer geeft op de kaart.

    Voor het overklokken gebruiken we niet de software van Gigabyte maar MSI Afterburner, gewoon omdat dit redelijk de standaard is voor het overklokken. Als eerste wordt het Power Limit helemaal omhoog geschroefd. Daarna wordt in stapjes van 10 MHz de Core Clock verhoogd. Crasht de applicatie of komt er een blue screen op het scherm te staan, herstart je de machine en ga je iets lager zitten.

    In het geval van deze kaart konden we de core clock 90 MHz hoger krijgen wat Gigabyte zelf had ingesteld. Dat is een overklok van iets meer dan 6%. Gaan we daarna nog de spelen met de sneheid van het geheugen, dan halen we de hoogste stabiele score met een overklok van 750 MHz.

    Maar wat bereiken we nu met het overklokken? Bij Timespy gaat de algemene score van 14677 naar 15081 en de GPU score van 17799 naar 18478. Dit zijn een 2,75 en 3.8% overklok. In Extreme mode 7219 naar 7395 en wat betreft de GPU score van 8922 naar 9262. Dit zijn ook respectievelijk een verbetering van 2,43 en 3,8%. Niet echt heel schokkende resultaten dus. Bedenk wel dat de power limit helemaal niet aangepast kan worden bij deze kaart dus elke procent winst is meegenomen.

  • Terug naar boven
  • Gaan we nog even kijken naar de laatste zaken van deze review: de temperaturen en het verbruik van deze kaart. De koeling wordt verzorgd door de bekende Windforce koeler die op meerdere kaarten gebruikt wordt. Het blok wat op de kaart zelf gemonteerd is kan wel per kaart verschillen natuurlijk. Bij de ene GPU is het blok dikker en zijn er meer heatpipes geplaatst dan bij lager geplaatste kaarten.


    Als de computer niets aan het doen is dan wordt de kaart 46 graden. Dit is wel een van de hoogste temperaturen van de kaarten die tot nu toe getest zijn. Op zich kan dit helemaal geen kwaad, de kaart is er immers voor gemaakt. Zetten we de kaart vol aan het werk in Furmark dan komt de temperatuur niet boven de 64 graden uit. Daarbij draaien de ventilatoren rond met een snelheid van 1800 toeren per minuut. Het geluidsniveau zit dan op 47,9 dB, luider dan de andere twee kaarten. Bedenk wel dat dit gemeten is buiten een kast. In een kast zal het dus wat stiller zijn.

    Starten we dan Doom Eternal dan zakt de temperatuur zelfs iets: deze is slechts 62 graden. De ventilatoren hoeven ook minder hard aan het werk en draaien met 1725 toeren per minuut. Dit scheelt in de geluidsproductie: 46,4 dB. De kloksnelheid komt dan uit op 1935 MHz.
    Als we dezelfde metingen doen bij een overklok dan komen de temperaturen in zowel Furmark als in Doom op 66 graden uit. In Doom draait de ventilator wel iets minder snel dan tijdens Furmark, dit scheektl 100 MHz. De snelheden van de kaart zijn bij de overklok uiteraard iets hoger: 45 MHz meer bij Furmark en 90 MHz (de overklok) bij Doom Eternal.


    Bekijken we nog het verbruik van de kaart. Om dit te meten hebben we bij de stekker het verbruik gemeten van de computer middels een Voltcraft Energy Check 3000. Daarmee wordt dus ook het moederbord, geluidskaart, waterkoeler, toetsenbord en muis meegenomen. In rust verbruikt de complete computer 71 Watt en dat is best netjes. Starten we echter Furmark of Doom Eternal dan loopt de waarde al snel op richting de 443 Watt. Dit is wel het laagste van de drie 3080 kaarten die tot nu toe getest zijn. Wanneer de machine overgeklokt is en tot de limiet gepushed wordt, stijgt het verbruik naar 460 Watt. Ook dit is nog steeds netjes te noemen.

  • Terug naar boven
  • Het is al in eerdere reviews gezegd en we zeggen het nog maar een keer: het kopen van een videokaart anno 2021 is bijna niet te doen. Er zijn wel manieren maar dan moet je een bot zien te regelen of heel snel zijn met kopen, mocht je hem tegen komen. Maar leuk is anders. De prijzen zijn bovendien ook geen feest want de kaarten zijn minstens twee keer zo duur als oorspronkelijk gepland. Tweedehands wordt ook de hoofdprijs gevraagd want er is geld aan te verdienen. Maar dat weerhoudt ons niet om deze kaart beter te bekijken.

    Qua prestaties zit het wel goed. De Gigabyte kaart komt goed mee met de eerder geteste kaarten van MSI en ASUS. Het is vaak stuivertje wisselen om wie de hoogste score heeft in een benchmark. Nu kan het deels ook te maken hebben wat voor sample je in handen krijgt. De ene kaart is immers de andere niet. Het kan dus best zijn dat jouw kaart beter of slechter presteert dan deze kaart. Het houdt wel in dat 4K gamen geen probleem is met deze kaart. 8K is echter net een stapje te hoog.

    Het uiterlijk van deze kaart is ook strak te noemen. Veel kleurverschil is er niet: de kaart is in two-tone uitgevoerd. Wel is het jammer dat bij de backplate de PCIUe kabels door het roostertje te zien zijn: dit had beter afgewerkt kunnen worden. Ook het RGB aspect is minimaal: alleen het logo is voorzien van RGB verlichting. De software die nodig is om dit aan te sturen is klein qua installatie en fijn in gebruik. Dat is wel eens anders geweest bij de RGB Fusion software. Dit lijkt verbeterd te zijn. Ook het synchroniseren van de verlichting met andere onderdelen is mogelijk, iets wat wel zo prettig is anno 2021.

    Het overklokken is mogelijk maar wordt aardig beperkt. De Power Limit is niet aan te passen wat soms wel nodig is om hogere kloksnelheden stabiel te houden. Het resultaat is dat er maar 90 MHz extra geklokt kan worden wat een verbetering oplevert van 3%. Dit brengt dus niet echt wat. Qua temoeraturen doet deze kaart het dan wel weer goed. Onder load komt de temperatuur niet hoger dan 64 graden. Daarvoor is de koeler wel aardig aan het werk, 1800 RPM is vrij hoog en brengt een geluidsdruk van bijna 48 dB. Daarbij verbruikt de kaart wel het minste van de drie kaarten: 443 Watt.

    Mocht je echt graag een 3080 kaart willen en ben je bereid het geld er voor uit te geven, dan kan deze kaart zeker op je shortlist.

    4K gamen prima mogelijk
    Goede Raytracing scores
    Goede koeling
    Fijn neutraal uiterlijk
    Prettige RGB software

    PCIe kabels zijn te zien door de backplate
    Power limit niet omhoog te schroeven
    Verkrijgbaarheid

    Mocht je op- en/of aanmerkingen hebben of iets te vragen, dan hoor ik het uiteraard graag. Mocht je dit een leuke review vinden, dan hoor ik het dit natuurlijk ook graag. 🙂 Het motiveert mij om nog meer reviews te maken.

  • Terug naar boven
  • 0 0 votes
    Artikelbeoordeling

    Wat vind jij?

    Vlammend
    0
    Tof
    0
    Heet
    0
    Meh
    0
    Nope
    0

    You may also like

    Subscribe
    Abonneren op
    guest
    0 Reacties
    Inline Feedbacks
    View all comments

    More in:Videokaarten