recordere.dk forum     Det danske community for hjemmets elektronik og indhold     Siden 2003
<b>Forside</b> Forside > Generelle emner > PC hardware & software
  Nye indlæg Nye indlæg  Seneste forum emner Seneste   Seneste forum emner (vindue) Vindue   De emner du deltager i Mine emner RSS Feed - Ny Generation af Grafikkort.
  FAQ FAQ  Søg i forum   Opret ny bruger Opret ny bruger  Log ind Log ind

Ny Generation af Grafikkort.

 Besvar Besvar Side  <1 1516171819 33>
Forfatter
Besked
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 24-Februar-2022 kl. 23:42
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4461
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Februar-2022 kl. 05:49
450-850W... Det er jo absurd for et grafikkort, særligt i disse tider. Måske man skulle begynde at underlægge denne branche krav om energieffektivitet og maks-forbrug, ligesom mange andre brancher er underlagt.
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Februar-2022 kl. 18:37
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

450-850W... Det er jo absurd for et grafikkort, særligt i disse tider. Måske man skulle begynde at underlægge denne branche krav om energieffektivitet og maks-forbrug, ligesom mange andre brancher er underlagt.

Nej sku da. Helligbrøde! ExclamationGeek

...Der skal jo også være noget til dem af os der er entusiaster. Det er jo ikke de økonomisk mere tilgængelige og mindre kort de fleste køber og slet ikke dem der kommer i laptops der kommer til at bruge så meget. De nye GPU'ere bliver jo kun yderligere energieffektive per TFlops når man overgår til 5 nm TSMC.
....Og du vil vel ikke til at begynde at lægge låg på TFLOPS ydelsen på high-end kortene??! Shocked

Desuden er det jo også det absolutte max forbruget når det spiker og ikke et udtryk for hvad grafikkortet bruger generelt af strøm. Jeg glæder mig. Mit RTX 3080 er det første grafikkort jeg har været sådan rimeligt tilfreds med til 4K og fordobles ydelsen nu (hvilket den jo så også gør uden en fordobling i strømforbruget) med de nye kort, så er det da kun ekstremt velkomment i mit system.
~90 TFlops - ja tak! Party

Redigeret af TBC1 - 25-Februar-2022 kl. 23:02
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4576
Funktioner Funktioner   Tak (0) Tak(0)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Februar-2022 kl. 20:41
Oprindeligt skrevet af TBC1 TBC1 skrev:

~90 TFlops - ja tak! Party

Hej.

nVideas 92 TFlops, kan ikke sammenlignes med TFlops fra AMD eller Intel, hvor tallet tit kun er det halve, for den samme ydelse.

Fra og med RTX 3080 ændrede nVidea ALU'erne ( Calculator circuit ), sammenlignet med RTX 2080 Ti Serien.

Der er stadig 64 rene Floating Point FP32 ALU'er pr. SM, men i stedet for de 64 rene Integer INT32 ALU'er,  er der nu 64 NYE ALU'er, som kan udføre beregninger af flydende komma og heltal. Men ikke på samme tid.

En RTX 2080 Ti SM kan derfor maksimalt udføre 64 FP32 og 64 INT32 beregninger på samme tid. En RTX 3080 SM på den anden side enten 128 FP32 eller 64 FP32 samt 64 INT32 beregninger afhængigt af arbejdsbelastningen, PC-applikationen sender til grafikkortet.

Hvis en pc-applikation kun bruger sit RTX 3080-grafikkort til Floating Point FP32-beregninger ved hjælp af CUDA, bliver resultatet 29,768 TFLOPS. Men hvis en pc-applikation kun bruger sit RTX 3080-grafikkort til 50% Floating Point FP32 og 50% af interger-beregninger ved hjælp af CUDA, bliver resultatet 14,884 TFLOPS.

Jeg ved ikke, hvordan de forskellige pc-applikationer fordeler floating Point FP32 og integer beregninger, men jeg forventer, at det rigtige svar ligger et sted midt imellem. Men langt fra 92 TFlops.

Den bedste måde at finde den faktiske ydeevne på er, at tjekke benchmarks, for de forskellige grafikkort.

Hilsen Carsten.



Redigeret af csell - 25-Februar-2022 kl. 20:44
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Februar-2022 kl. 21:49
Oprindeligt skrevet af csell csell skrev:

Oprindeligt skrevet af TBC1 TBC1 skrev:

~90 TFlops - ja tak! Party
nVideas 92 TFlops, kan ikke sammenlignes med TFlops fra AMD eller Intel, hvor tallet tit kun er det halve, for den samme ydelse.

Fra og med RTX 3080 ændrede nVidea ALU'erne ( Calculator circuit ), sammenlignet med RTX 2080 Ti Serien.

Uanset hvordan tallene gøres op er det under alle omstændigheder et udtryk for en fordobling i floating point operations, i forhold til de nuværende generationer af både NVidia og AMD kort - Dét er svært ikke at feste over hvis det holder hele vejen hjem Beer ...Det er jo ikke lige den slags trin-op vi generelt har været forvænnet med at se.

Du har dog helt ret i at benchmarks er langt det bedste og fuldstændige parameter,. Det bliver i betragtning af de angivne specifikationer derfor også utroligt spændende at se dem når de kommer - nok især for 4K og 8K opløsninger, mere end lige for 1080p


Redigeret af TBC1 - 26-Februar-2022 kl. 06:58
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
jan348 Se dropdown menu
Bruger
Bruger


Oprettet: 08-September-2006
Sted: Denmark
Status: Offline
Point: 66
Funktioner Funktioner   Tak (0) Tak(0)   Citér jan348 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 26-Februar-2022 kl. 18:34
Helt enig Rasmus.
Det er binde galt.
Det lader slet ikke til Nvidia gør ret meget for at blive mere energieffektive.

Tvært imod virker det som "jo større problem jo større hammer" princippet bruges. :-)


Redigeret af jan348 - 26-Februar-2022 kl. 18:36
Til top
Kasper_J Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 30-Marts-2007
Status: Offline
Point: 2811
Funktioner Funktioner   Tak (0) Tak(0)   Citér Kasper_J Citér  BesvarSvar Direkte link til dette indlæg Sendt: 26-Februar-2022 kl. 22:33
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

450-850W... Det er jo absurd for et grafikkort, særligt i disse tider. Måske man skulle begynde at underlægge denne branche krav om energieffektivitet og maks-forbrug, ligesom mange andre brancher er underlagt.


Grafikkort/konsol-branchen lever på lånt tid. Fremtiden er utvivlsomt streaming af spil, hvor man 100% kan eliminere piratkopiering. Vi er der ikke helt endnu, men det varer ikke længe før teknologien er god nok til, at det ikke længere giver mening at sælge spil når de kan lejes ud per abonnement.
Til top
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4576
Funktioner Funktioner   Tak (1) Tak(1)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 26-Februar-2022 kl. 22:50
Oprindeligt skrevet af jan348 jan348 skrev:

Det er binde galt.
Det lader slet ikke til Nvidia gør ret meget for at blive mere energieffektive.

Hej. 

Jeg tror også, at der er nogle der er blinde gale. Og det er ikke nVidea.

De nuværende RTX 3000 serie Grafikkort er fremstillet med Samsung chips i en 8nm process node, som rent faktisk bare er en forbedret 10nm node.
De næste RTX 4000 serie kort, som kommer om ca et halvt år, vil blive fremstillet i en TSMC 5nm process node.

Der er to hele process noder forskel mellem 10nm og 5nm process noder. Fordelen ved at gå et trin ned i process node, er mindre strømforbrug og større enegi effektivitet. Jeg ved IKKE hvor du har læst det modsatte?

Men hvorfor mon nVidia planlægger at kommer med Grafikkort der bruger mere strøm. Det gør de for at kunne efterkomme efterspørgslen. Nu bruger jeg selv DaVinci Resolve til video redigering og farve korrigering. En 4K video har 4x flere pixels end en HD video. Og en 8K video har igen 4x flere pixels end en 4K video. Alt billedbehandling i DaVinci Resolve sker i Grafikkortets GPU.

Jeg forstår ikke, at man kan have noget imod, at et Grafikkort til 8K video redigering måske bruger 1,5x mere strøm for, at kunne redigere og farve korrigere en video med 4x gange flere pixels?

Hilsen Carsten.

Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 26-Februar-2022 kl. 23:31
Oprindeligt skrevet af jan348 jan348 skrev:

Det er binde galt.

Nej, men det er til gengæld bindegalt at have ondt i røven over at der også skulle kunne være noget til entusiasterne og det professionelle marked.

Men dit skriv blotlægger at din holdning skyldes at du i realiteten er plaget af nogle grundlæggende misfortståelser om sagen, så her kommer et par realitetstjek at gøre godt med:
Oprindeligt skrevet af jan348 jan348 skrev:

Det lader slet ikke til Nvidia gør ret meget for at blive mere energieffektive.

Både AMD og NVidia benytter ellers milliader på hele tiden at udvikle mere energieffektive processorer fra gang til gang. AMD har aktuelt den mest energieffektive GPU med RX 6800. Den er aktuelt den mest energieffektive FORDI den er baseret på en chip med 6 nm TMSC process. 

Skal man sige noget generelt om AMD og NVidia's vej til energieffektivitet, så er det at AMD relativt til Nvidia har fokuseret mindre på strømeffektivitet sammenlignet med støbestørrelseseffektivitet, mens Nvidia [ind til nu] omvendt har fokuseret mere på på strømeffektivitet sammenlignet med støbestørrelseseffektivitet. 

Så selv om der ikke er tale om 6 nm TMSC process, men Samsungs 8 nm, så er er RTX 3070 i dag alligevel den 2. mest energieffektive GPU på markedet, RTX 3060 Ti den 4 og RTX 3060 12GB den 5 mest effektive, når man ser på top 5 over de mest energieffektive GPUer, og deres performance per watt - så din fordom passer simpelthen ikke med realiteterne, selv om Nvidia af den ene eller anden grund ikke havde held med at få foden indenfor i TMSC's 6nm produktion, men endte med at måtte nøjes med Samsungs 8 nm produktion til RTX 3000 serien. Nu de har kastet milliarder efter et få sikret sig 5 nm TMSC kan vi med andre ord, nu Nvidia så at sige får krydset begge bokse, formentligt forvente os mere energieffektive GPU'er end nogensinde.



Og sådan helt generelt kan man også historisk se at de nyeste GPU generationer vedvarende bliver mere energieffektive end de forrige, RTX 3000 serien er mere energieffektiv end RTX 2000 serien der er mere energieffektiv end GTX1000 serien osv osv. Den næste RTX 4000 serie vil også være - og det muligvis markant - mere energieffektiv end RTX 3000 serien, idet der bliver tale om 5 nm TMSC samtidig med at Nvidia's GPU'er i forvejen er designede ret strømeffektive.

Oprindeligt skrevet af jan348 jan348 skrev:

Tvært imod virker det som "jo større problem jo større hammer" princippet bruges. :-)


Se godt og MEGET grundigt på denne illustration, så vil du forstå sammenhængen - og hvorfor jeg er ved at kaste op Dead når jeg hører janter bitche over strømforbruget på de kommende GPU'er - og det er da helt gak, når det som ovenfor gennemgået oven i købet bliver som 5 nm TMSC GPUer fra en producent der allerede har gjort en del ud af strømeffektivt chipdesign i forhold til konkurrencen.




Skal man forstå [også] GPU ydelse og strømforbrug skal man grundlæggende forstå denne sammenhæng:

Mindre die density kræver mindre energi for at fungere, og de kortere veje, der forbinder chippens logiske enheder, betyder, at det tager mindre tid for data at rejse. Sammen med forbedringer i fremstillingen af siliciumchips (reduktion af defekter og bedre isolering) resulterer dette i at man enten kan køre med højere clockhastigheder og bevare det samme strømforbrug sammenlignet med tidligere generationer, eller at man kan bruge mindre strøm til samme clock rate. Og hurra, man kan også lettere lave en støre chip, så man får en ressourcemæssigt større chip med både flere units og cores OG samtidig højere clocks, hvilket tilsammen og i synergi med selve chipdesignet så resulterer i højere ydelser end tidligere.

Så når der er nogen der bitcher over at de kommende 5 nm TMSC GPU'er bruger meget strøm, så er det man grundlæggende bitcher over at de også bygges store og får høj ydelse - hvilket vi altså er nogle der hilser MEGET velkomment. Det ville svare til at der bliver lavet et mere strømeffektivt TV panel man så også er i stand til at lave i flere tommer og man så sidder og bitcher over at der dermed også samtidigt kommer TV modeller med flere tommer end man hidtil har set, baseret på dette mere strømbesparende panel, som så grundet størrelsen bruger mere strøm end tidligere TV alligevel - Men det skal der sku da også være både lov og plads til, ikke? - Det er vi altså nogle der virkeligt ønsker os! Du mener vel heller ikke at salg af TV over 42" skulle forbydes, vel?

Og man skal så også bare lige huske på at de højeste angivne strømspecifikationer omhandler de allerstørste og mest uncutted modeller til professionelt og gaming-entusiast brug. Der under vil der så være en række af mindre kort (dem der som reglen sælges flest af) med mindre strømforbrug end de allerstørste - OG fra øverst til nederst, også helt ned til de mindste laptop modeller, vil de så altså alle være blevet mere energieffektive i forhold til deres ydelse.

Så, please, lad nu være med at være så direkte bagstræberiske at bitche over at der også kommer større GPU'er med højere ydelse og lad os der gerne vil have noget juice og noget power have lov til at glæde os over at det OGSÅ er det man fra de øverste hylder kan udnytte teknologien til - Der er jo ingen der forhindrer dig eller andre i at købe et RTX 4050 og ligefrem underclocke det, hvis man har det meget bedre med et lavere strømforbrug end med en høj ydelse, vel?


Redigeret af TBC1 - 27-Februar-2022 kl. 15:54
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 27-Februar-2022 kl. 16:11
Oprindeligt skrevet af Flick Flick skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

450-850W... Det er jo absurd for et grafikkort, særligt i disse tider. Måske man skulle begynde at underlægge denne branche krav om energieffektivitet og maks-forbrug, ligesom mange andre brancher er underlagt.
Du ved tilsyneladende ikke hvad energieffektivitet betyder, måske du skulle holde dig til ord som ikke er alt for avancerede til dig, eller sætte dig lidt ind i det tekniske aspekt, så du rent faktisk kan se at energieffektiviteten kun går den rigtige vej, og bliver bedre og bedre.
Tag endelig ikke fejl af Rasmus, han har gerne rigtigt godt styr på sit shit - så dit udsagn vil hurtigt kunne ramme dig til ris af egen røv fra den kant. Vi kan alle bruge et givent ord på anden måde end andre ville have brugt det, MEN jo altså også fra et andet perspektiv end f.eks. blot mine sammenligninger med f.eks. den direkte konkurrence fra AMD. I og med brugen af ordet står i samme kontekst som talen om at indføre et maksforbrug er man jo ikke ladt i tvivl om hvad den rationelt helt forståelige holdning der gives udtryk for handler om - og den kan man så være enig eller uenig med, alt efter hvad man prioriterer.

Personligt gyser jeg bare ved tanken om at brancen skulle underlægges et maks forbrug, da jeg er glad for både store skærme, effektforstærkere og high-end grafikkort og ville finde sådan et tiltag bagstræberisk og hæmmende for hvad jeg kunne få adgang til. Vi prioriterer jo forskelligt, så mens jeg køber energimærke A hvidevarer og cykler på arbejde mv, så vil jeg stadig gerne have mulighed for adgang til en high-end GPU i min computer og have "lov til" at bruge en strømslugende klasse A effektforstærker. Jeg mener at disse særligt strømslugende produkter jo gerne er så dyre at det kun er entusiaster der tager dem til sig og bruger dem, mens de fleste mere moderat får glæde af udviklingen med knapt så store, dyre og strømslugende produkter, der hvad GPU'er angår samtidig med højere ydelse så faktisk også bliver mere energieffektive fra generation til generation - a.k.a. fremskridt Wink

Redigeret af TBC1 - 27-Februar-2022 kl. 16:41
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
jan348 Se dropdown menu
Bruger
Bruger


Oprettet: 08-September-2006
Sted: Denmark
Status: Offline
Point: 66
Funktioner Funktioner   Tak (0) Tak(0)   Citér jan348 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 27-Februar-2022 kl. 21:04
Oprindeligt skrevet af TBC1 TBC1 skrev:

Oprindeligt skrevet af jan348 jan348 skrev:

Det er binde galt.

Nej, men det er til gengæld bindegalt at have ondt i røven over at der også skulle kunne være noget til entusiasterne og det professionelle marked.

Men dit skriv blotlægger at din holdning skyldes at du i realiteten er plaget af nogle grundlæggende misfortståelser om sagen, så her kommer et par realitetstjek at gøre godt med:
Oprindeligt skrevet af jan348 jan348 skrev:

Det lader slet ikke til Nvidia gør ret meget for at blive mere energieffektive.

Både AMD og NVidia benytter ellers milliader på hele tiden at udvikle mere energieffektive processorer fra gang til gang. AMD har aktuelt den mest energieffektive GPU med RX 6800. Den er aktuelt den mest energieffektive FORDI den er baseret på en chip med 6 nm TMSC process. 

Skal man sige noget generelt om AMD og NVidia's vej til energieffektivitet, så er det at AMD relativt til Nvidia har fokuseret mindre på strømeffektivitet sammenlignet med støbestørrelseseffektivitet, mens Nvidia [ind til nu] omvendt har fokuseret mere på på strømeffektivitet sammenlignet med støbestørrelseseffektivitet. 

Så selv om der ikke er tale om 6 nm TMSC process, men Samsungs 8 nm, så er er RTX 3070 i dag alligevel den 2. mest energieffektive GPU på markedet, RTX 3060 Ti den 4 og RTX 3060 12GB den 5 mest effektive, når man ser på top 5 over de mest energieffektive GPUer, og deres performance per watt - så din fordom passer simpelthen ikke med realiteterne, selv om Nvidia af den ene eller anden grund ikke havde held med at få foden indenfor i TMSC's 6nm produktion, men endte med at måtte nøjes med Samsungs 8 nm produktion til RTX 3000 serien. Nu de har kastet milliarder efter et få sikret sig 5 nm TMSC kan vi med andre ord, nu Nvidia så at sige får krydset begge bokse, formentligt forvente os mere energieffektive GPU'er end nogensinde.



Og sådan helt generelt kan man også historisk se at de nyeste GPU generationer vedvarende bliver mere energieffektive end de forrige, RTX 3000 serien er mere energieffektiv end RTX 2000 serien der er mere energieffektiv end GTX1000 serien osv osv. Den næste RTX 4000 serie vil også være - og det muligvis markant - mere energieffektiv end RTX 3000 serien, idet der bliver tale om 5 nm TMSC samtidig med at Nvidia's GPU'er i forvejen er designede ret strømeffektive.

Oprindeligt skrevet af jan348 jan348 skrev:

Tvært imod virker det som "jo større problem jo større hammer" princippet bruges. :-)


Se godt og MEGET grundigt på denne illustration, så vil du forstå sammenhængen - og hvorfor jeg er ved at kaste op Dead når jeg hører janter bitche over strømforbruget på de kommende GPU'er - og det er da helt gak, når det som ovenfor gennemgået oven i købet bliver som 5 nm TMSC GPUer fra en producent der allerede har gjort en del ud af strømeffektivt chipdesign i forhold til konkurrencen.




Skal man forstå [også] GPU ydelse og strømforbrug skal man grundlæggende forstå denne sammenhæng:

Mindre die density kræver mindre energi for at fungere, og de kortere veje, der forbinder chippens logiske enheder, betyder, at det tager mindre tid for data at rejse. Sammen med forbedringer i fremstillingen af siliciumchips (reduktion af defekter og bedre isolering) resulterer dette i at man enten kan køre med højere clockhastigheder og bevare det samme strømforbrug sammenlignet med tidligere generationer, eller at man kan bruge mindre strøm til samme clock rate. Og hurra, man kan også lettere lave en støre chip, så man får en ressourcemæssigt større chip med både flere units og cores OG samtidig højere clocks, hvilket tilsammen og i synergi med selve chipdesignet så resulterer i højere ydelser end tidligere.

Så når der er nogen der bitcher over at de kommende 5 nm TMSC GPU'er bruger meget strøm, så er det man grundlæggende bitcher over at de også bygges store og får høj ydelse - hvilket vi altså er nogle der hilser MEGET velkomment. Det ville svare til at der bliver lavet et mere strømeffektivt TV panel man så også er i stand til at lave i flere tommer og man så sidder og bitcher over at der dermed også samtidigt kommer TV modeller med flere tommer end man hidtil har set, baseret på dette mere strømbesparende panel, som så grundet størrelsen bruger mere strøm end tidligere TV alligevel - Men det skal der sku da også være både lov og plads til, ikke? - Det er vi altså nogle der virkeligt ønsker os! Du mener vel heller ikke at salg af TV over 42" skulle forbydes, vel?

Og man skal så også bare lige huske på at de højeste angivne strømspecifikationer omhandler de allerstørste og mest uncutted modeller til professionelt og gaming-entusiast brug. Der under vil der så være en række af mindre kort (dem der som reglen sælges flest af) med mindre strømforbrug end de allerstørste - OG fra øverst til nederst, også helt ned til de mindste laptop modeller, vil de så altså alle være blevet mere energieffektive i forhold til deres ydelse.

Så, please, lad nu være med at være så direkte bagstræberiske at bitche over at der også kommer større GPU'er med højere ydelse og lad os der gerne vil have noget juice og noget power have lov til at glæde os over at det OGSÅ er det man fra de øverste hylder kan udnytte teknologien til - Der er jo ingen der forhindrer dig eller andre i at købe et RTX 4050 og ligefrem underclocke det, hvis man har det meget bedre med et lavere strømforbrug end med en høj ydelse, vel?


Det var da et usædvanligt nedladende indlæg.

Tror nu i øvrigt ikke du kan lære mig ret meget om GPU'er.
Jeg er fuldstændigt  up-to-date teknologierne.
Og der er også et 3070 i huset.

Hvad "jeg har ondt i røven over" eller "bitcher over", for at bruge dine egne ord, er at man tilsyneladende ikke ikke formår at bringe strømforbruget ned med de fremskridt man har lavet.

Det er helt absurd at man forventer 450 - 800 Watt i forbrug på en ny generation af GPU'er.

Det er i min optik en større hammer.

Over and out!
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Februar-2022 kl. 01:42
Oprindeligt skrevet af jan348 jan348 skrev:

[QUOTE=TBC1][QUOTE=jan348]
Hvad "jeg har ondt i røven over" eller "bitcher over", for at bruge dine egne ord, er at man tilsyneladende ikke ikke formår at bringe strømforbruget ned med de fremskridt man har lavet.

Så har du åbenlyst IKKE hverken læst, forstået eller taget til dig hvad jeg gav udtryk for i det ellers lange og udredende indlæg eller hvad 'csell' også tilsvarende har påpeget. For det indlysende faktum er at man med den mindre 5 nm TMCS proces drager fordel af større strømeffektivitet, hvilket fører til bedre ydeevne pr. watt, hvilket betyder at man OGSÅ bliver i stand til at bringe strømforbruget ned ifbm. en given ydelse.

Det vil, som allerede forsøgt forklaret, sige at du kommer til at kunne udskifte dit allerede [per dags dato!] 'ydeevne pr. watt effektive' RTX 3070 kort, med et Series 4000 kort der enten yder omtrent det samme som dit 3070 bare med brug af mindre strøm - eller at du kan købe et kort der bruger omtrent det samme i strøm med yder bedre end det du har nu. Du kommer ganske givet også til at kunne købe et der båder bruger endnu mindre strøm og yder mindre end dit nuværende 3070, hvis du dykker langt nok ned i de billigere series 4000 modeller - Så jo man formår OGSÅ at bringe strømforbruget ned med de fremskridt man har lavet.

Dertil kommer så at du altså også kommer til at kunne købe nogle modeller der bruger mere strøm og yder langt langt mere end de nuværende kort. Så når man brokker sig over strømforbruget på de største og mest uncut modeller der kommer i 4000 serien, så brokker man sig i realiteten over at man OGSÅ bruger mulighederne og potentialerne i forbindelse med den mindre støbeformsteknologi til at der så OGSÅ kommer større kort med endnu flere processors og cores end i den serie vi allerede har aktuelt til markant højere ydelser, lidt lige som hvis selv om panelteknologien skulle være mere energieffektiv stadig brokker sig over at der med nye processer også laves større og større TV, som den benyttede analogi. - Og undskyld mig, men det er sku da en omgang bagstræberisk brok at beklage sig over det! ...Und da lige dét til dem af os der virkeligt glæder os til det. Du kan jo stadig selv holde dig til de GPU-størrelser og det strømforbrug du synes passer bedst til dig, i glæde over at de OGSÅ får bedre ydeevne pr. watt end den nuværende generation!

Du er vel godt med på at AD102 formentligt kun omhandler RTX 3080, 3080Ti og 3090? Derunder regner man med at der kommer AD104 og AD106 og AD107 i forskellige cuts, som dækker de mindre kort i serien fra 4070 og nedefter. Som allerede skrevet og påpeget så bliver alle GPU'erne i 4000 serien MERE strømeffektive hvis de som rygterne regner med får 5nm TMCS ...Der er jo ingen der tvinger dig til at købe det største monster kort af et RTX 4090, men hold da op med det bagstræberiske brok over at man altså OGSÅ udnytter den mindre støbeformsteknologi til at kunne lave endnu vildere udrustede og mere strømforbrugende GPU'er end hidtil. Det burde man imho kun glæde sig over. Det betyder alt sammen jo kun endnu bedre valgmuligheder, sammen med bedre ydeevne pr. watt for ALLE Party


Redigeret af TBC1 - 28-Februar-2022 kl. 02:55
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
 
 Besvar Besvar Side  <1 1516171819 33>
 
Skift forum Forum-tilladelser Se dropdown menu