GPU Boost - Nvidia's Self Boosting Algorithm Explained

Grafikkortteknologier er skred frem i de sidste par generationer med hver generation, hvilket bringer en betydelig forbedring ikke kun i kortets samlede ydeevne, men også i de funktioner, kortene tilbyder. Det er ingen overraskelse, at det er afgørende for både Nvidia og AMD at fortsætte med at innovere og fortsætte med at udvikle funktionssættene på deres kort og de iboende teknologier i dem sammen med generationens forbedringer i ydeevne med hver efterfølgende række grafikkort.



Nvidia GeForce RTX 3080 er et af de hurtigste grafikkort, der understøtter Ray Tracing - Billede: Nvidia

Clock speed boosting er blevet en mainstream-funktion i pc-hardwarebranchen i disse dage med både grafikkort såvel som CPU'er, der tilbyder denne teknologi. At variere komponentens urhastigheder på grund af ændringer i pc'ens forhold kan føre til meget forbedret ydeevne såvel som effektiviteten af ​​den del, hvilket i sidste ende giver en meget bedre brugeroplevelse. På grund af den hurtige progression inden for dette felt er grafikkortens standardforbedringsadfærd blevet forbedret yderligere og forbedret med teknologier som GPU Boost 4.0, der kommer i front i 2020. Disse nye teknologier er udviklet for at maksimere grafikkortets ydeevne. når det er nødvendigt, samtidig med at topeffektiviteten opretholdes under lettere belastninger.



GPU Boost

Så hvad er GPU Boost nøjagtigt? Nå, enkelt sagt, GPU Boost er Nvidias metode til dynamisk at øge grafikkortens urhastigheder, indtil kortene rammer en forudbestemt strøm- eller temperaturgrænse. GPU Boost Algorithm er en meget specialiseret og betinget opmærksom algoritme, der foretager ændringer i split-sekund til et stort antal parametre for at holde grafikkortet på den maksimale mulige boost-frekvens. Denne teknologi gør det muligt for kortet at booste meget højere end det annoncerede 'Boost Clock', der muligvis er angivet på kassen eller på produktsiden.



GPU Boost giver kortet mulighed for at maksimere dets ydeevne ved hjælp af tilgængelige ressourcer - Billede: Nvidia



Før vi dykker ned i mekanismen bag denne teknologi, skal et par vigtige terminologier forklares og differentieres.

Terminologier

Mens man køber et grafikkort, kan gennemsnitsforbrugeren støde på et væld af tal og forvirrende terminologier, der giver ringe mening eller endnu værre, ender med at modsige hinanden og yderligere forvirre kunden. Derfor er det nødvendigt at tage et kort kig på, hvad de forskellige urhastighedsrelaterede terminologier betyder, når du ser på en produktside.

  • Base ur: Basisuret på et grafikkort (også undertiden benævnt 'Core Clock') er den mindste hastighed, hvormed GPU'en annonceres til at køre. Under normale forhold falder kortets GPU ikke under denne klokkehastighed, medmindre forholdene ændres væsentligt. Dette antal er mere markant i ældre kort, men bliver mindre og mindre relevant, da boosting-teknologier er i centrum.
  • Boost Clock: Det annoncerede Boost Clock på kortet er den maksimale urhastighed, som grafikkortet kan opnå under normale forhold, før GPU Boost aktiveres. Dette urhastighedsnummer er generelt ret højere end Base Clock, og kortet bruger det meste af sit strømbudget til at opnå dette nummer. Medmindre kortet er termisk begrænset, rammer det dette annoncerede boostur. Dette er også den parameter, der ændres i 'Factory Overclocked' -kort fra AIB-partnere.
  • 'Spilur': Med udgivelsen af ​​AMDs nye RDNA-arkitektur på E3 2019 annoncerede AMD også et nyt koncept kendt som Game Clock. Denne branding er eksklusiv til AMD-grafikkort i skrivende stund og giver faktisk et navn til de vilkårlige urhastigheder, man kunne se under spil. Dybest set er Game Clock den hastighed, som grafikkortet skal ramme og vedligeholde under spil, hvilket generelt er et sted mellem Base Clock og Boost Clock til AMD-grafikkort. Overclocking af kortet har en direkte indvirkning på netop denne hastighed.

Den annoncerede base- og boost-ure fra GeForce RTX 3070 - Billede: TechPowerUp



Mekanisme ved GPU Boost

GPU Boost er en interessant teknologi, der er ret gavnlig for spillere og virkelig ikke har nogen væsentlig ulempe så at sige. GPU Boost øger grafikkortets effektive klokkehastighed, selv ud over den annoncerede boostfrekvens, forudsat at visse forhold er gunstige. Hvad GPU Boost gør, er i det væsentlige overclocking, hvor det skubber GPU-ens hastighed ud over det annoncerede 'Boost Clock'. Dette gør det muligt for grafikkortet at presse mere ydelse ud automatisk, og brugeren behøver slet ikke at finjustere noget. Algoritmen er i det væsentlige “smart” på grund af det faktum, at den kan foretage ændringer i split-sekunder på forskellige parametre på én gang for at holde den vedvarende klokkehastighed så høj som muligt uden risiko for at gå ned eller artefakte osv. Med GPU Boost er grafikkort kører højere end annonceret urhastigheder ud af kassen, hvilket giver brugeren i det væsentlige et overclocked kort uden behov for manuel indstilling.

GPU Boost er hovedsageligt en Nvidia-specifik branding, og AMD har noget lignende, der fungerer på en anden måde. I dette indholdsstykke vil vi primært fokusere på Nvidias implementering af GPU Boost. Med sin Turing-serie af grafikkort , Nvidia introducerede den fjerde iteration af GPU Boost kaldet GPU Boost 4.0, der tillod brugerne at manuelt justere de algoritmer, som GPU Boost bruger, hvis de finder det passende. Dette var ikke muligt med GPU Boost 3.0, da disse algoritmer var låst inde i driverne. GPU Boost 4.0 på den anden side giver brugerne mulighed for manuelt at tilpasse forskellige kurver for at øge ydeevnen, hvilket vil være en god nyhed for overclockere og entusiaster.

GPU Boost 4.0 har også tilføjet forskellige andre fine tweaks såsom temperaturdomæne, hvor nye bøjningspunkter er tilføjet. I modsætning til GPU Boost 3.0, hvor der var et stejlt og pludseligt fald fra boostur ned til basisur, når en bestemt temperaturgrænse blev krydset, kan der nu være flere trin undervejs mellem de to urhastigheder. Dette giver mulighed for et større niveau af granularitet, som gør det muligt for GPU'en også at klemme den sidste ydeevne under ugunstige forhold.

PU Boost 4.0 giver mulighed for yderligere brugerdefinerede trin mellem det originale boostur og basisuret - Billede: Nvidia

Overclocking af grafikkortene med GPU boost er ret ligetil, og ikke meget har ændret sig i denne henseende. Enhver ekstra forskydning til kerneklokken anvendes faktisk på “Boost Clock”, og GPU Boost-algoritmen forsøger yderligere at forbedre den højeste klokkehastighed med en lignende margin. At øge Power Limit-skyderen til det maksimale kan hjælpe betydeligt i denne henseende. Dette gør stresstest af overklokken lidt mere kompliceret, fordi brugeren skal holde øje med urets hastigheder såvel som temperaturer, strømforbrug og spændingsnumre, men vores omfattende stresstestguide kan hjælpe med den proces.

Betingelser for GPU Boost

Nu hvor vi har diskuteret mekanismen bag selve GPU Boost, er det vigtigt at diskutere de betingelser, der skal opfyldes for at GPU Boost skal være effektiv. Der er et stort antal betingelser, der kan påvirke den endelige frekvens, der opnås af GPU Boost, men der er tre hovedbetingelser, der har den mest betydningsfulde indflydelse på denne boostende adfærd.

Power Headroom

GPU Boost overklokerer automatisk kortet, forudsat at der er nok strømhøjde til kortet til at muliggøre de højere urhastigheder. Det er forståeligt, at højere urhastigheder trækker mere strøm fra PSU'en, så det er ekstremt vigtigt, at der er nok strøm til grafikkortet, så GPU Boost kan fungere korrekt. Med de fleste moderne Nvidia-grafikkort bruger GPU Boost al den tilgængelige strøm, som den kan bruge til at skubbe urets hastigheder så højt som muligt. Dette gør Power Headroom til den mest almindelige begrænsende faktor for GPU Boost-algoritmen.

GPU Boost kan afhænge stærkt af Power Limit - Billede: Nvidia

Simpelthen at øge skyderen 'Power Limit' til det maksimale i enhver overclocking-software kan have stor indflydelse på de endelige frekvenser, der rammes af grafikkortet. Den ekstra strøm, der gives til kortet, bruges til at skubbe urets hastighed endnu højere, hvilket er et bevis på, hvor meget GPU Boost-algoritmen afhænger af magthøjde.

Spænding

Grafikkortets strømforsyningssystem skal kunne levere den ekstra spænding, der er nødvendig for at ramme og opretholde de højere urhastigheder. Spænding bidrager også direkte til temperaturen, så den hænger sammen med den termiske loftshøjde. Uanset hvad er der en hård grænse for, hvor meget spænding kortet kan bruge, og denne grænse indstilles af kortets BIOS. GPU Boost bruger enhver spændingshøjde til at forsøge at opretholde den højeste urhastighed, den muligvis kan.

Spænding har også en effekt på de endelige urhastigheder - Billede: Nvidia

Termisk loftshøjde

Den tredje vigtige betingelse, der skal opfyldes for en effektiv drift af GPU Boost, er tilgængeligheden af ​​tilstrækkelig termisk hovedhøjde. GPU Boost er ekstremt følsom over for GPU-temperaturen, da den øges og formindsker urets hastighed baseret på selv de mindste temperaturændringer. Det er vigtigt at holde GPU'ens temperatur så lav som muligt for at opnå de højeste urhastigheder.

Temperaturer højere end 75 grader Celcius begynder at sænke urets hastighed markant, hvilket kan påvirke ydeevnen. Urets hastighed ved disse temperaturer vil sandsynligvis stadig være højere end Boost Clock, men det er ikke en god ide at lade ydeevnen være på bordet. Derfor kan tilstrækkelig kabinetventilation og et godt kølesystem på selve GPU'en have en væsentlig indvirkning på de urhastigheder, der opnås gennem GPU Boost.

Boost Binning og Thermal Throttling

Et interessant fænomen, der er iboende for driften af ​​GPU Boost, er kendt som boost binning. Vi ved, at GPU Boost-algoritmen hurtigt ændrer GPU's klokkehastighed afhængigt af forskellige faktorer. Urets hastighed ændres faktisk i blokke på 15 MHz hver, og disse 15 MHz-dele af urets hastigheder er kendt som boostbakker. Det kan let observeres, at GPU Boost-numre vil variere fra hinanden med en faktor på 15 MHz afhængigt af effekt, spænding og termisk hovedrum. Dette betyder, at ændring af de underliggende betingelser kan falde eller øge kortets hastighed med en faktor på 15 MHz ad gangen.

Begrebet termisk nedbrydning er også interessant at udforske med GPU Boost-drift. Grafikkortet starter faktisk ikke termisk gashåndtering, før det når en indstillet temperaturgrænse kendt som Tjmax. Denne temperatur svarer normalt til et sted mellem 87-90 grader Celcius på GPU-kernen, og dette specifikke antal bestemmes af GPU'ens BIOS. Når GPU-kernen når denne indstillede temperatur, falder urets hastigheder gradvist, indtil de falder selv under basisuret. Dette er et sikkert tegn på termisk nedbrydning sammenlignet med almindelig boostbinning, som udføres af GPU boost. Hovedforskellen mellem termisk strygning og boostbinning er, at termisk throttling finder sted ved eller under basisuret, og boost-binning ændrer den maksimale klokkehastighed, der opnås af GPU Boost ved hjælp af temperaturdataene.

Ulemper

Der er ikke mange ulemper ved denne teknologi, som i sig selv er en ret fed ting at sige om en grafikkortfunktion. GPU Boost giver kortet mulighed for automatisk at øge klokkehastighederne uden brugerinput og låser kortets fulde potentiale op ved at give ekstra ydelse uden ekstra omkostninger for brugeren. Der er dog et par ting at huske på, hvis du ejer et Nvidia-grafikkort med GPU Boost.

På grund af det faktum, at kortet bruger hele det tildelte strømbudget, vil kortets strømforbrugsnumre være højere, end annonceret TBP- eller TGP-numre kan få dig til at tro. Derudover vil den ekstra spænding og strømforbrug føre til højere temperaturer på grund af det faktum, at kortet automatisk overclockes ved hjælp af den tilgængelige temperaturhøjde. Temperaturerne bliver på ingen måde farligt høje, for så snart temperaturerne krydser en bestemt grænse, falder spændingen og strømforbruget for at kompensere for den ekstra varme.

Power Draw kan stige ud over annonceret TBP (320W i tilfælde af RTX 3080) med GPU Boost - Billede: Techspot

Afsluttende ord

Hurtige fremskridt inden for grafikkortteknologier har set nogle ekstremt imponerende funktioner, der kommer ind i forbrugernes hånd, og GPU Boost er bestemt en af ​​dem. Nvidias funktion (og AMDs lignende funktion) gør det muligt for grafikkortene at nå deres maksimale potentiale uden behov for brugerinput for at give den maksimale ydeevne uden for kassen. Denne funktion eliminerer alt andet end behovet for manuel overclocking, da der virkelig ikke er meget plads til manuel finjustering på grund af den fremragende styring af GPU Boost.

Samlet set er GPU Boost en fremragende funktion, som vi gerne vil se, blive bedre og bedre med forbedringer af kernealgoritmen bag denne teknologi, der mikromanagerer de små justeringer til forskellige parametre for at få den bedst mulige ydeevne.