recordere.dk forum     Det danske community for hjemmets elektronik og indhold     Siden 2003
<b>Forside</b> Forside > Generelle emner > PC hardware & software
  Nye indlæg Nye indlæg  Seneste forum emner Seneste   Seneste forum emner (vindue) Vindue   De emner du deltager i Mine emner RSS Feed - Ny Generation af Grafikkort.
  FAQ FAQ  Søg i forum   Opret ny bruger Opret ny bruger  Log ind Log ind

Ny Generation af Grafikkort.

 Besvar Besvar Side  <1 2021222324 33>
Forfatter
Besked
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4576
Funktioner Funktioner   Tak (0) Tak(0)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Marts-2022 kl. 13:45
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Med mindre Nvidia har fået forlomme hos TSMC?

Hej.

nVidea har forudbetalt adskillige milliarder af dollars til TSMC, for at få plads i 5nm køen.


Citat: 'We also fully expect AMD to introduce its next-generation Zen 4-based Epyc and Ryzen CPUs along with RDNA 3-based Radeon RX 7000-series GPUs this fall. Nvidia will also launch its Ada Lovelace-powered GeForce RTX 40-series consumer offerings around the same time as well. All of these products are meant to be widely available, so TSMC will need a lot of capacity to produce these chips.'

Fra et link med oveskriften: 'TSMC to Boost 4nm & 5nm Output by 25%: Ada Lovelace, Hopper, RDNA 3, Zen 4'


Der bliver et interessant H2 2022, hvor hardware ydelsen vil nå nye højder.

Hilsen Carsten.


Redigeret af csell - 25-Marts-2022 kl. 13:50
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 25-Marts-2022 kl. 18:56
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

hvis CPU'en er en flaskehals, så lider GPU'en.


Ja, men lad 1080p >120 fps crowded bekymre sig om det - det er deres problem, mens det gængse 1440p crowd med RTX 4000 serien i lidt flere enkelstående titler måske snart nærmer at skulle give det flere overvejelser afhængigt af hvad de lige spiller, hvis de måtte have en lidt, i dag at regne, småsløv ældre CPU.

Men når der renders i/til 4K, så regner jeg med at vi skal et par generationer frem endnu i GPU ydelse efter RTX 4000 og RDNA3, før selv en 5 år gammel CPU som f.eks. min kommer i nærheden af oftere at poppe op som flaskehals i de moderne 3D spil jeg gerne spiller. I 99% af alle moderne spil keder CPU'en sig bravt, mens GPU'en maxer fuldt ud med alt hvad den kan trække. Naturligvis findes der eksempler på CPU-bound spil-titler, men i hovedparten af alle moderne spil med deres fokus på grafikken, er stort set alle stadig helt ekstremt GPU-bound.

Moderne spil bruger generelt bare ikke CPU'en særligt meget, de kræver først og fremmest top-tier GPU'er for at systemet overhovedet kommer i nærheden af at skalere, selv i systemer med både 5 og måske 8-10 år gamle den gang top CPU'er. Man skal skrue voldsomst ned for opløsningen og/eller de grafiske settings, før det bliver CPU'en der den dag i dag går hen og bliver flaskehalsen i et moderne spil ved nutidige opløsninger.

Jeg har dog overvejet også at opgradere CPU sammen med mængden af system-RAM, men det omhandler så helt andre overvejelser end lige spil, hvortil det på ingen måde 'any time soon' vil blive nødvendigt i andet en helt særlige undtagelser, med en af de få mere CPU bound titler der trods alt eksisterer (men så også sjældent er den type titler jeg spiller)

Redigeret af TBC1 - 26-Marts-2022 kl. 00:17
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4438
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 08:38
Første kommercielle, masseproducerede 5nm chip fra TSMC kom for halvandet år siden med Apples A14. Jeg synes rygtet om, at Nvidia har betalt store summer til TSMC for prioritet på 5nm kapacitet, lyder spøjst – der må mangle noget i historien. Og når Nvidia endelig kommer i gang, er andre aktører vel klar til at rykke massivt ud på 4nm og måske 3nm fra TSMC.

I et modulært system endte jeg med at opgradere motherboard sammen med CPU, GPU eller RAM for det var i virkeligheden ikke mere hastighed i komponenterne, jeg havde brug for, men mere hastighed i slots / forbindelserne imellem komponenterne – eller bare nye slots pga. kompatibilitet. Baseret på NVLink 3, så har jeg svært ved at blive begejstret over NVLink 4. Derfor er jeg nysgerrig på, hvilke fordele i stadig ser i modulære PC-systemer?

I dag synes jeg, at flere af koncepterne om integreret chip-design (og chiplet) er mere spændende og lovende – og allerede bedre ydende i flere henseender – end nye særskilte komponenter i de modulære systemer. Udviklinger såsom UMA (Unified Memory Architecture), 'interposer' til brokobling og 2.5D og 3D stacking.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4438
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 09:23
Oprindeligt skrevet af TBC1 TBC1 skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

hvis CPU'en er en flaskehals, så lider GPU'en.


Ja, men lad 1080p >120 fps crowded bekymre sig om det - det er deres problem, mens det gængse 1440p crowd med RTX 4000 serien i lidt flere enkelstående titler måske snart nærmer at skulle give det flere overvejelser afhængigt af hvad de lige spiller, hvis de måtte have en lidt, i dag at regne, småsløv ældre CPU.

Men når der renders i/til 4K, så regner jeg med at vi skal et par generationer frem endnu i GPU ydelse efter RTX 4000 og RDNA3, før selv en 5 år gammel CPU som f.eks. min kommer i nærheden af oftere at poppe op som flaskehals i de moderne 3D spil jeg gerne spiller.

Men vel også et spørgsmål om årsag-virkning? Der findes ikke mange spil, der er skabt til 120+ fps, fordi hardwaren generelt ikke er til det. På samme måde findes der ikke mange spil med uendeligt store og detaljerede verdener fordi hardwaren ikke er til det, ligesom spil ikke gør meget brug af "AI" – for at bruge et modeord – fordi spil-PC'er generelt ikke har NPU'er.

Nogle af de ting er ved at komme nu, men spillene kommer ikke før nok brugerne har hardwaren. Det sker næppe foreløbigt ved at forbeholde det nyeste modulære GPU'er. Det kan ske relativt hurtigt, hvis det bliver "standardløsningen" i produkter, der sælger på massemarkedet.

Jeg kan huske dengang Nvidia begyndte at slå et slag for PhysX med et komponent af hardware-acceleration, der skulle føre til bedre fysik-simulation i spil. Idéen var at frigøre CPU-ressourcer ved at lægge det over først på et ekstern komponent – der skete så godt som intet i spiludviklingen på den konto – og senere som del af GPU'en vha. oversættelse med CUDA.

Samspillet mellem PhysX på hardware og så spilbranchens ibrugtagning af mulighederne gik langsomt, men reelt betød det, at man frigjorde CPU-ressourcer. Det er egentlig et spørgsmål om årsag-virkning for det kunne være gået en anden vej. Pendulet vil givetvis senere svinge tilbage mod CPU (og NPU) afvikling af flere opgaver i spilsammenhæng. At Nvidia har forsøgt at centrere de værdiskabende elementer ift. spilafvikling i GPU'en er jo i høj grad et forretningsmæssigt perspektiv (en af grundene til deres grafikkort koster så meget i dag).

I et modulært system vil man så at sige få en langsom overgang til en ny realitet, hvor et specifikt hardware-komponent er påkrævet, fordi selvom spil godt kan tage de nye muligheder i brug, så er bestanden ude hos brugerne i lang tid så lille, at udviklerne i stedet optimerer spil (mv.) ift. den "gamle" opbygning. I et integreret system sætter man ved lancering en ny "baseline" og derfra vokser bestanden hastigt, så udviklere hurtigt kan tage de nye muligheder i brug, og brugerne hurtigt kan tage dem i brug – om end givetvis på et lidt lavere grafisk niveau i f.eks. spil. Og man kan langt mere fleksibelt rykke forskellige typer beregninger imellem det integrerede designs forskellige typer kerner (CPU, GPU, NPU, chip til enkodning/dekonding osv.) fordi der er en Unified Memory Architecture, der giver et unikt samspil. Fordele og ulemper naturligvis, men ikke desto mindre har konsoller jo i generation vist, at der et stort spilmarked for de delvist integrerede systemer.


Redigeret af Rasmus Larsen - 28-Marts-2022 kl. 10:27
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 10:39
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Derfor er jeg nysgerrig på, hvilke fordele i stadig ser i modulære PC-systemer

Fordelen ved det modulære system, for mig som enkeltstående bruger i det aktuelle marked, er helt oplagt at du selv har mulighed for at kaste pengene efter og opgradere der hvor du med dit personlige forbrug har flaskehalsen. Til 4K gaming, er det som beskrevet helt klart GPU'en der i mit og de fleste andre 4K gameres alenestående helt enorme og altoverskyggende flaskehals. For lige at sætte det perspektiv, så ligger min 5 år gamle CPU gerne med en belastning på ~10% når mit relativt nye (nuværende generation RTX 3080) ligger på 100%

Du kan derfor med et modulært system kaste dine penge efter hvad der er dít personlige brugs flaskehals og hvad der kan reelt kan betale sig for dig at opgradere, hvilket i mit tilfælde som 4K gamer vil sige GPU'en, da det i 99% af alle spil jeg spiller altid er GPU'en der kommer VOLDSOMT til kort, maxer ud og er den eneste kompromiterende komponent i forhold til resten af systemet, selv med et 5 år gammelt bundkort og en 5 år gammel CPU. Du bliver ved med at slå ned på og tale om NVLink 3, men så længe det ikke betaler sig er der jo heller ikke mange der gør brug af det - så det er der naturligvis heller ikke mange der gør - Det tiltaler heller ikke mig. Til gengæld kommer det igen til at kunne betale sig at opgradere til den nye generation af GPU'er. Så igen står jeg i den situation at jeg kan nøjes med at opgradere GPU'en da det er det eneste jeg reelt vinder noget ved til 4K gaming. Jeg kan således spare penge i forhold til altid at skulle udskifte et HELT system på én gang, i forhold til hvad man må forestille sig et samlet system med tilsvarende top-tier grafiske kræfter ville koste hvis det ellers havde eksisteret. Det er da 2 helt klare og indlysende fordele for én som enkeltstående forbruger skulle jeg mene: At man sparer penge og det i det hele taget, i modsætning til et tilsvarende integreret, overhovedet eksisterer og er tilgængeligt.

Det er ikke sådan at jeg er "religiøst" imod samlede og integrerede systemer og var, eller skulle man rettere sige når ydelsen går hen og bliver højere på et sådant end hvad man kan bygge sig til modulært, så ville jeg også selv ende med et sådant - men der er trods alt to ting jeg for min egen part frygter lidt ved den vision:

Det ene er middelmådigheden, når det hele bliver mindre fleksibelt/costomisable og du ikke længere med eget modulære system 'can reach for the stars' i forhold til dine personlige præferencer og behov, så ender man med systemer der sigter mod mere gennemsnitlige behov. Tag f.eks. konsollerne: PS5/XSX, som vi kan tage som det nok mest relevante eksempel på et integreret system når det handler om relationen til gaming, er at regne som forholdmæssigt kraftigere af en konsol at være, når man sammenligner med PC på det tidspunkt de kom frem, i forhold til status for tidligere konsolgenerationer. Ikke desto mindre er netop deres GPU'er voldsomt underdimensionerede i forhold til reelt at kunne afvikle 4K 60 Hz renders og nogle af spillenes mere krævende grafiske indstillinger er på de nye konsoller i mange tilfælde lavere end hvad der er er adgang til med indstillingen "low" på PC versionen af samme spil eller de er slet ikke til stede/aktiverede (særligt når det handler om forskellige RayTracing elementer er det ofte kun nogle få udvalgte man ser der tages i brug, ikke spillets samtlige) og det alt imens render er 1440p eller 1080p og 30 fps når de tungere grafiske settings tages i brug.

Det andet er prisen. Forestil dig at du skulle købe et samlet/integreret system med samme grafiske kræfter som det modulære hver 2 år. Mens det samlede/integrerede system meget vel kan være billigere at anskaffe sig i forhold til et modulært system fra et udgangspunkt på "0", vil det formentligt blive langt dyrere at skulle udskifte et helt og komplet integreret system hvert andet år, frem for at opgradere den komponent der er systemets akilleshæl, hvilket i tilfældet 4K gaming aktuelt og i overskuelig fremtid i helt ekstrem grad er GPU'en. 

Så skal jeg opsummere, så ser jeg fordelen anno 2022 ved det modulære system er den at du kan spare penge hvis du har en høj opgraderingfrekvens, det at du fleksibelt kan orientere systemet mod dit personlige behov og det at det aktuelt er det den eneste vej der overhovedet eksisterer til de højere hardware kræfter jeg ønsker mig at kunne gøre brug af. Sparede jeg ikke penge ved det og var det ikke den eneste vej til det højere mål af ydelse jeg ønsker, så var udfordringen alene den hvor vidt der eksisterede et integreret system hvor pengene var smidt efter den ydelsesprofilering jeg fortrækker.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

men spillene kommer ikke før nok brugerne har hardwaren. Det sker næppe foreløbigt ved at forbeholde det nyeste modulære GPU'er. Det kan ske relativt hurtigt, hvis det bliver "standardløsningen" i produkter, der sælger på massemarkedet [..]  I et integreret system sætter man ved lancering en ny "baseline" og derfra vokser bestanden hastigt, så udviklere hurtigt kan tage de nye muligheder i brug, og brugerne hurtigt kan tage dem i brug
Det har du så ganske ret i - Den har vi også været omkring før en gang eller to eller andet sted og det er fortsat et aspekt jeg giver dig helt og aldeles ret i. Men det er et så også et helt andet og mere overordnet perspektiv end hvad den enkelte bruger kan finde af værdi og muligheder nu og her i forhold til det marked der nu engang eksisterer (altså, alt det jeg har forholdt mig til ovenfor). Og derfor håber jeg i den grad også altid på syvmileskridt inden for integrerede systemer hver gang der kommer nye. Jeg direkte begræder at en spillekonsols levetid gerne er så meget som 7 år og jeg håber hver gang der kommer nye spilsystemer at de bliver så kraftige som overhovedet mulige - For min skyld måtte en PS5/XSX så at sige gerne koste 20.000 kr bare at producere i forhold til ambitionerne med dem  ...selv om jeg naturligvis godt ved at det så ville give andre udfordringer mht til at få dem udbredt, men jeg håber du forstår hvad jeg mener med det - Jeg håber altid at nye generationer tager store skridt og bliver MEGET kraftige!

Man kan vel sige at der er tale om 2 ben: Massemarkedet skal tage det første skridt, afgørende for hvilke spildesigns vi får se, før entusiasterne på deres marked så kan tage det næste skridt "towards the sky" med et kraftigere system, hvilket anno 2022 stadig vil sige et modulært system, selv om det langt fra er ensbetydende med at det så også er bliver tilfældet i 2050


Redigeret af TBC1 - 28-Marts-2022 kl. 13:27
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4576
Funktioner Funktioner   Tak (0) Tak(0)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 12:03
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Jeg synes rygtet om, at Nvidia har betalt store summer til TSMC for prioritet på 5nm kapacitet, lyder spøjst – der må mangle noget i historien. 

Hej.

Her er et af flere links: 'NVIDIA Will Reportedly Pay TSMC Nearly $7 Billion for GeForce RTX 40 Series and Other Next-Gen GPU Manufacturing'


Og den nye H100 Accelerator til datacentre, er lavet på TSMC's 4 nm process node.

Da nVidea skiftede til Samsung 8nm, var rygtet at det hovedsageligt skete på grund af Samsungs pris. nVidea havde fået et godt tilbud. Når nVidea igen skifter tilbage til TSMC for 5nm til RTX 4000 serien, er prisen en af flere parametre, da nVidea er i stand til for at fremstille meget kraftige GPU'er, i flere forskellige moderne process noder, som de så selv kan vælge imellem

Nu findes der flere forskellig udgaver at de forskellige process noder. En TSMC 5nm process node, er ikke lig med en anden TSMC 5nm process node. Jeg har læst at AMD Lisa Su har sagt, at AMD vil vente på en bestemt process node, indtil TSMC var klar med en 'High Performance' udgave af den. 

UMA (Unified Memory Architecture) er ikke ny. AMD har fremstillet millioner af enheder med UMA. Alle Gaming konsoller bruger UMA. AMD fremstiller stadig separate CPU og GPU'er. Personligt mener jeg, at AMD kender både fordele og ulemper ved begge løsninger.

Og rygterne siger, at AMD vil kommer med MCM (Multi Chip Module) allerede i RDNA 3 her i 2022. MCM er lige som chiplets, men bare for GPU's.

Hilsen Carsten.



Redigeret af csell - 28-Marts-2022 kl. 12:30
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 13:07
Oprindeligt skrevet af csell csell skrev:

Og den nye H100 Accelerator til datacentre, er lavet på TSMC's 4 nm process node. [..] Nu findes der flere forskellig udgaver at de forskellige process noder. En TSMC 5nm process node, er ikke lig med en anden TSMC 5nm process node. Jeg har læst at AMD Lisa Su har sagt, at AMD vil vente på en bestemt process node, indtil TSMC var klar med en 'High Performance' udgave af den
Ja, om med H100 som N4 er det er pludseligt blevet meget mere interessant hvilken node i N5 familien den nye generation af RTX GPU'er får. Det siges at der er omkostningsfordele forbundet med den nye 4N process, hvilket vel egentligt kun øger chancen for at den nye serie RTX serie bliver i 4N. Måske er det så 4NP som AMD venter på, hvis det ikke er N3 de venter på til næste omgang?
TSMC Extends Its 5nm Family With A New Enhanced-Performance N4P Node – WikiChip Fuse

"the N4P (min rettelse af tekstens åbenlyse tastefejl) node will deliver 11% performance boost over the original N5 node or, alternatively, a 6% boost over N4. In terms of power efficiency, TSMC says the N4P node will offer a 22% improvement in power efficiency compared to N5"

Redigeret af TBC1 - 28-Marts-2022 kl. 13:20
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 173
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 17:14
NPU'erne på en M1 er så vidt jeg ved kun beregnet til at "afspille" maskinlæring, og endda kun meget specifikke modeller. Forstået på den måde at selve indlæringen sker ved at en GPU, Googles TPU eller lignende fodres med info, og bygger en model som understøttes. Når den så er færdig, kan den køres meget hurtigt på NPU'en.

Som eksempel på hvordan det fungerer, kan nævnes Alphastar som er en AI til at spille Starcraft II. Den kan spille lige op med de bedste spillere. Dog er den begrænset til et enkelt map og kun protoss vs protoss. For at oplære AI'en kørte 16x Google TPU v3.0 (de har hver en regnekraft på 420 TFLOPS) i 14 dage. Så vidt jeg husker svarede det til at analysere 200 års Starrcraft II spil, og så bygger den en model / agent på basis af det. Afspilningen kan klares af et GTX2080 eller lignende.

Indtil nu tror jeg ikke Apple bruger deres NPU'er til andet end at analysere billeder, tekst, tale og musik (eksempelvis køre OCR på et billede med tekst, så du kan kopiere og klistre). Igen virker det primært til at det er for at spare strøm og få det til at gå hurtigere når man eksempelvis bruger Face ID. Når M1 skal bruges til rigtig maskinlæring, er det GPU'en der skal bruges. Så jeg tror ikke lige man skal forvente nogen revolution med hensyn til AI i spil (eller andre steder), som følge af NPU'erne på M1.


Redigeret af LeChuck - 28-Marts-2022 kl. 17:29
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-Marts-2022 kl. 20:04
Oprindeligt skrevet af LeChuck LeChuck skrev:

NPU'erne på en M1 er så vidt jeg ved kun beregnet til at "afspille" maskinlæring, og endda kun meget specifikke modeller. Forstået på den måde at selve indlæringen sker ved at en GPU, Googles TPU eller lignende fodres med info, og bygger en model som understøttes. Når den så er færdig, kan den køres meget hurtigt på NPU'en.

Jo, det er vel indbegrebet af AI ude hos end user at der er tale om "afspilning" eller applikations brug. Jeg skulle da mene at det kræver mere end bare en enkelt snoldet CPU eller GPU at træne en respektabel AI model og algoritme, men i stedet i et regulært multi-layered artificial neural network at træne AI modellen og at dette foregår i store supercomputere og serverparker, med mange mange flere processorkræfter end en enkelt GPU. Nvidia annoncerede for nyligt at de bygger en endnu hurtigere AI platform end den de har aktuelt, med EOS på 18,4 exaflops. Derfra kan man så høste de algoritmer som den enkelte GPU siden kan benytte sig af, eller "afspille", for nu at bruge dit udtryk. AI kan så rigtigt nok også puttes som label på mange ting, faktisk alt fra algoritmerne i Windows 11's Widgets (I kid you not LOL) over videoopskalerings algoritmer i f,eks. Samsung TV til videnskabelige værktøjer til medicinsk udvikling og fuld gensekventering (https://youtu.be/dnKJTaYoAh8) , forudsigelse af vejret (https://youtu.be/nuT_U1AQz3g) og på sigt regionale effekter af global opvarmning (Kræver angiveligt større processorkræfter end til rådighed i dag), komponering af musik, kunst, en live webavatar af dig selv der med dit ansigt og din stemme on the fly taler andre sprog (https://youtu.be/3GPNsPMqY8o), selvkørende biler, autonome robotter (https://youtu.be/VW-dOMBFj7o) og naturligvis NPS's i spil osv osv. Den nyligt overståede keynote fra den svjv største spiller inden for AI var fuld af talrige eksempler på AI applikationer: https://youtu.be/39ubNuxnrK8?t=322 

Den bedste implementering jeg selv endnu selv har erfaret og set i aktion, med relation til emnet grafikkort (og spil) er Nvidia's DLSS, hvis betydning for billedkvalitet og 4K afvikling ikke kan undervurderes - et 1440p render opskaleret til 4K med DLSS (a.k.a. quality mode) overgår direkte et native render i 4K hvad angår billedkvalitet: https://youtu.be/SBjL0M25t04

Redigeret af TBC1 - 29-Marts-2022 kl. 02:22
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4438
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 05:54
Oprindeligt skrevet af LeChuck LeChuck skrev:

NPU'erne på en M1 er så vidt jeg ved kun beregnet til at "afspille" maskinlæring, og endda kun meget specifikke modeller. Forstået på den måde at selve indlæringen sker ved at en GPU, Googles TPU eller lignende fodres med info, og bygger en model som understøttes. Når den så er færdig, kan den køres meget hurtigt på NPU'en.

Der kan afvikles mange forskellige typer modeller på Apples NPU'er, og konverteres fra TensorFlow. Det er det Core ML er skabt til, så det er egentlig bare op til softwareudviklerne: https://developer.apple.com/machine-learning/core-ml/

Der kan skam opbygges og trænes modeller på NPU'erne i Apples chips. Det sker vha. deres Create ML framework: https://developer.apple.com/machine-learning/create-ml/


Redigeret af Rasmus Larsen - 29-Marts-2022 kl. 06:01
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4438
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 06:13
Oprindeligt skrevet af TBC1 TBC1 skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Derfor er jeg nysgerrig på, hvilke fordele i stadig ser i modulære PC-systemer

Ikke desto mindre er netop deres GPU'er voldsomt underdimensionerede i forhold til reelt at kunne afvikle 4K 60 Hz renders og nogle af spillenes mere krævende grafiske indstillinger er på de nye konsoller i mange tilfælde lavere end hvad der er er adgang til med indstillingen "low" på PC versionen af samme spil eller de er slet ikke til stede/aktiverede (særligt når det handler om forskellige RayTracing elementer er det ofte kun nogle få udvalgte man ser der tages i brug, ikke spillets samtlige) og det alt imens render er 1440p eller 1080p og 30 fps når de tungere grafiske settings tages i brug.

Tak for indspark. Det er gode betragtninger.

Ift. ovenstående så synes jeg, at der er flere aspekter i det end opløsning, frame rate og detaljegrad. F.eks. HDR giver spiludviklerne mulighed for at udnytte en større palette af lys og farver, hvilket efter min mening et giver markant større grafisk løft end springet fra f.eks. 1440p til 4K eller fra low til high settings. Jeg synes f.eks., at det første Horizon spil var et større grafisk spring ift. et typisk PS4-spil end springet fra PS4 til PS5 i det aktuelle Horizon spil. HDR er stadig ikke slået igennem i PC-økosystemet, hvilket skyldes den modulære tilgang – PC'er er vidt forskellige. HDR er langt mere udbredt på konsollerne fordi der er en baseline. Alle med en PS4, PS4 Pro, PS5, Xbox One S, Xbox One X, Xbox Series S eller Xbox Series X har et system, der kan håndtere HDR, som spiludviklerne ønsker det. Det er mange, mange millioner konsoller.

Min pointe er, at ekstra kræfter ikke altid kan oversættes direkte til et bedre slutprodukt. Nogle udvikler kræver tæt integration imellem kæden, hvilket et integreret design giver.

Ift. pris ved opgradering af modulære systemer, så er det jo ikke ligefrem billigt at købe de nye grafikkort. RTX 3080 koster vel ca. 9000 kroner og RTX 3090 ca. 16.000 kroner. De nye RTX 40-serie kort bliver næppe prissat lavere.


Redigeret af Rasmus Larsen - 29-Marts-2022 kl. 06:19
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4438
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 06:31
Oprindeligt skrevet af csell csell skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Jeg synes rygtet om, at Nvidia har betalt store summer til TSMC for prioritet på 5nm kapacitet, lyder spøjst – der må mangle noget i historien. 


Her er kilden til artiklen: https://m.mydrivers.com/newsview/805332.html

Ikke den mest troværdige artikel, men en oversættelse lyder bl.a: "NVIDIA's manufacturing process will also shift to TSMC 5nm, but they are no longer the priority customers of TSMC, and their priorities lag behind Apple, MediaTek, AMD and other manufacturers. It is not easy to obtain a stable 5nm production capacity."

Der er angiveligt flere aktører foran i køen, så Nvidia kan vel næppe siges at have prioritet. Der er nærmere tale om, at Nvidia halser efter de aktører, de gerne vil sammenlignes med. Og nu skal Nvidia H100 jo lige på markedet først. Det sker tidligst i 3. kvartal og eftersom det ikke er et forbrugerprodukt, så er det jo nogle lidt andre forhold.
Til top
 
 Besvar Besvar Side  <1 2021222324 33>
 
Skift forum Forum-tilladelser Se dropdown menu