|
Ny Generation af Grafikkort. |
Besvar | Side <1 2122232425 33> |
Forfatter | |||
LeChuck
Bruger Oprettet: 09-April-2011 Status: Offline Point: 173 |
Funktioner
Tak(0)
|
||
Jeps, du kan lave mange forskellige Core ML modeller, men det betyder ikke den bruger NPU'en. Tjek evt. dette link. Som du kan se af linket er der en del begrænsninger, selvom "meget specifikke modeller" nok er en overdrivelse. Udover det synes jeg det er tankevækkende at M1, M1 Pro og M1 Max har den samme NPU (Ultra har naturligvis dobbelt op). Det tyder umiddelbart ikke på at Apple mener den del af chippen spiller en stor rolle, når først ydelsen på resten af systemet stiger.
|
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Det udbygges løbende igennem software – også til eksisterende Apple-enheder med NPU'er. I Core ML 3 er der eksempelvis udvidet med en en del yderligere processer, der kan afvikles på NPU'erne.
Den her gennemgang er super nørdet og ikke til at forstå, hvis man ikke arbejder med maskinlæring, men den giver også nogle overordnede punkter ift. udviklingen fra Core ML version 1 til 3: https://machinethink.net/blog/new-in-coreml3/
Men sådan er det jo nu engang alle steder, hvor en NPU tages i brug. Den kan løse nogle opgaver, men ikke dem alle lige nu og her. Et integreret chipdesign med UMA giver bedre ydelse og større fleksibilitet ift. at rykke opgaverne rundt imellem de forskellige typer af processorer. |
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
LeChuck
Bruger Oprettet: 09-April-2011 Status: Offline Point: 173 |
Funktioner
Tak(0)
|
||
Selvfølgelig vil Apple opdatere sine udvikler værktøjer løbende. Men bare fordi Apple introducerer en masse nye modeller i Core ML, betyder det ikke at de som udgangspunkt kører på NPU'en. Med Apples egne ord: "Core ML is designed to seamlessly take advantage of powerful hardware technology including CPU, GPU, and Neural Engine" (kursivering lavet af undertegnede).
|
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Jeg forstår nok ikke rigtig din pointe. Det er klart, at processen afvikles på den processor, som er mest effektiv til opgaven. Et integreret design sikrer, at det i praksis sker gnidningsfrit – deraf ordet "seamlessly" i deres egen beskrivelse.
Core ML opdateres løbende til at flere modeller kan afvikles. Et stigende antal på NPU. Se bl.a. artiklen i mit forrige indlæg.
|
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
LeChuck
Bruger Oprettet: 09-April-2011 Status: Offline Point: 173 |
Funktioner
Tak(0)
|
||
Min pointe er at NPU'er i stil med den i M1 ikke er nødvendige for bedre AI i spil. Det er en smart lille chip, der fungerer fint til det den er bygget til. Men den har nogle ret tydelige begrænsninger, du ikke finder i en CPU / GPU.
|
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Jeg talte i generelle termer om sammenhængen imellem hardware og softwareudvikling ift. modulære vs. integrerede systemer. Og jeg talte om årsag-virkning og gav nogle eksempler. Min pointe var, at man ikke konkludere, at fordi noget er på en given måde i dag eller i overskuelig fremtid, så er det fordi det er den rigtige eller optimale tilgang. Vi kan godt tale M1 specifikt, men det var ikke mit oplæg. NPU'er giver nogle nye muligheder indenfor flere felter, heriblandt spil. Det er stadig i en rimelig tidlig fase hvad angår både hardware og software, men der er spændende perspektiver i det på længere sigt. Ligesom flere opgaver gennem tiden er flyttet fra CPU'en til GPU'en, så vil visse eksisterende og fremtidige opgaver blive flyttet igen, heraf nogle til NPU. Det sker allerede.
|
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Nvidia lancerer RTX 3090 Ti: https://www.theverge.com/2022/3/29/23001134/nvidia-rtx-3090-ti-specs-release-date-pricing
Pris på 2000 USD versus 1500 USD (vejl. ved lancering) på RTX 3090.
|
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
Flippo
Guld medlem Oprettet: 04-Januar-2018 Status: Offline Point: 1323 |
Funktioner
Tak(0)
|
||
|
|||
LeChuck
Bruger Oprettet: 09-April-2011 Status: Offline Point: 173 |
Funktioner
Tak(0)
|
||
Det er ærlig talt der du mister mig. NPU'en i Apples chips er, så vidt jeg informeret, oprindeligt udviklet til at gøre FaceID, Siri og andre OS relaterede ting hurtigere og mindre strømkrævende. Det giver god mening, da funktionerne er temmelig essentielle for en smartphone Dertil går jeg ud fra vi er blevet rimeligt enige om, at den ikke nødvendigvis er optimal til andre udregninger som kommer under maskinlæring, men ikke har noget at gøre med ovenstående områder? På PC har vi i mange år haft GPU'er som er fantastiske til maskinlæring (nVidia som TBC1 nævner), og som kan optimeres til at udføre alle modeller, uanset hvad de skal bruges til. Dertil er der, som du selv er inde på i et tidligere indlæg (hvor du omtaler PhysX), allerede masser af specifikke funktioner der er understøttet direkte i GPU'erne. Så hvorfor i alverden har vi behov for en NPU til at accelerer spil på PC? Så vidt jeg kan se har vi det allerede.
|
|||
TBC1
Guld medlem Oprettet: 19-Februar-2009 Status: Offline Point: 1972 |
Funktioner
Tak(0)
|
||
Sådan var balancen rigtigt nok omkring 2018-2019, men i dag kan jeg altså ikke genkende den fremlægning af sagen af to grunde: I dag er der omkring 200 spil på PC der har native HDR, mens der vel er et sted omkring 60-65 titler på PS4 (51 på listen jeg kunne finde, der dog er 9 måneder gammel - Jeg kunne af gud må vide hvilken grund ikke finde en liste for PS5, men da den har ekslusivtitler der ikke findes på PS4, så lad os bare antage omkring måske 70-75) - For det andet er det i dag normen, at nyudgivelser der har HDR på konsol også har dette i PC versionen af spillet. Igen ender vi samme sted: Modulært kan man selv afgøre om man enten er ligeglad eller om man som entuisiast går efter udnyttelse af enten HDR eller RayTracing - eller begge dele. Og i forhold til opløsning, grafisk kvalitet, framerate og RayTracing kan man selv bestemme hvor meget højere grafiske niveauer og framerates mv. man sigter efter og ønsker at udnytte, mens man er langt mere fastlåst og uden samme omfattende indflydelse med en integreret konsol. Samtidig kan man som entuisiast så stadig takke fremskridtene på de integrerede systemer for at den lavere almene eller generelle baseline for spildesign og grafik sættes højere end i tidligere generationer, når de integrerede systemer bevæger markedets baseline frem mere konsistent i skridt end det modulære marked gør. Som du måske (måske ikke) husker, så er jeg hver gang der kommer nye konsolgenerationer altid ude og påpege hvor vigtig der er at de er meget kraftigere end forrige generation, idet det det har betydning for ambitionerne man ser i forbindelse med de cross-platform titler (hvilket jo er langt langt de fleste større spil) man også ser på PC. I øvrigt vil jeg så tilføje at jeg personligt finder at fuldtonet/komplet Raytracing har endnu større indflydelse og effekt på et spils grafiske look end HDR i sig selv har, mens kombinationen af HDR og Raytracing naturligvis er allerbedst (Og da også kun sjældent ses adskilt i titlerne, da titlerne med RayTracing og HDR jo generelt tilhører samme generation af titler) Der er også det aspekt at renderopløsning og billedkvalitet og stabilitet fra f.eks. DLSS er langt mere væsentligt på PC, hvor man så at sige sidder med snuden oppe i skærmen og typisk har dækket en større del af sit synsfelt end man har med et TV fra en Sofa. Så hvor hurtigt opløsning og billedstabilitet (vigtig tæt på / på meget store skærme) vs HDR og RayTracing (afstands og størrelses uafhængigt) relativt til hinanden bliver væsentlige for den samlede grafiske fidelity, er imho forskellig for PC og konsol - Jeg ønsker naturligvis det, da det alt sammen bidrager til den samlede grafiske fidelity.
Slutproduktet er jo at regne som selve spillet, mens det er en anden snak hvordan og i hvilken udstrækning den enkelte slutbruger er i stand til at udnytte et spil og dets kvaliteter. Den tætte integration imellem en hardwarekædes integrerede design og spillets settings i forbindelse med det integrerede system sikrer mere optimal udnyttelse af de nu engang tilstedeværende kræfter. Det er [fra 0] en optimal priseffektiv løsning, som jeg ofte og gerne anbefaler den mere casual gamer, der står med 0. Men med adgang til større kræfter og udnyttelser af højere opløsninger, højere framerates og de højere grafiske settings man gives adgang til i spillets PC udgave (og for den sags skyld et kvalitetsparameter som DLSS) - så vil man jo altid så længe disse faktorer eksisterer, være i stand til at udnytte produktet (spillet) med højere kvaliteter. Tidligere konsoleksklusive titler (hvis det er det du tænker på) udgives jo også til PC, hvor man tilsvarende bliver i stand til at udvikle dem i højere kvaliteter og med højere settings. Ekstra kræfter resulterer som naturlov i bedre afvikling af produktet og produktet gives yderligere også højere settings ved ekstra kræfter, hvad enten det er så er en multiplatformtitel man afvikler på PC i stedet for konsol eller hvis en ny konsol har dobbelt så mange kræfter som den tidligere generation.
Redigeret af TBC1 - 29-Marts-2022 kl. 23:14 |
|||
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019 Sovevær.:KD-65AF8,HTP-075,ATV4K |
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Jeg forstår, at det du opponerer imod er, at jeg specifikt skriver NPU. Lad os udvide det til 'neural' processering i almindelighed. Det kan Nvidia-kort også, men ligesom hos Apple så er det først i seneste generationer, at det for alvor har taget fart – aktuelt med over 100 TOPS (INT8) ydeevne og afvikling af forskelligartede modeller. Det ændrer ikke min pointe om, at mindre fokus på "AI" i spil er en brik i årsag-virkning. Vi har det ikke fordi man ikke har fokuseret på det historisk. Det er naturligvis en del af den generelle udvikling, men i mange år gennem spiludvikling har man fokuseret på opløsning på bekostning af frame rate og andre kompromisser. Det er en balancegang. Der sidder ikke 16 NPU-kerner i M1 i Mac og iPad og A15 i en iPhone for at muliggøre Face ID, stemmegenkendelse, billedanalyse og lidt andet. Der er ikke engang Face ID på Mac. Valget om at øremærke en stor andel af transistorbudgettet til NPU er et langsigtet perspektiv ift. både hardware- og software-udvikling, og hvordan det kan muliggøre nye ting i fremtiden. Der er udviklerværktøjer til rådighed, som udbygges løbende. Jeg arbejder eksempelvis med billedredigering dagligt og for næsten hver store opdatering af Pixelmator Pro, så introduceres der nye billedredigeringsværktøjer, der tager NPU'erne i Apples-enheder i brug i takt med, at der udvikles nye ML-modeller. Photoshop er ligeledes begyndt at omfavne det, ligesom der sker udviklinger indenfor video-apps.
For at give et historisk perspektiv på det, så stillede man samme type spørgsmål, da GPU'en begyndte at kigge frem omkring årtusindeskiftet. Jeg kan huske diskussionerne om behovet for en GPU fra dengang jeg havde Voodoo og Riva, og fra dengang jeg fik et "rigtigt" kort, Geforce 256. I dag tager vi GPU'en for givet og prisen på de bedste kort er steget markant fordi grafikkort kan løse så mange flere opgaver. Nu ser vi skridt mod dedikerede NPU'er og det er der spændende muligheder i, men tiden må vise, hvad det fører til. Ingen af os kan spå. Generelt ser vi dog på hardwaren skridt mod også at rykke andre opgaver ud på dedikerede chips (enkodning/dekodning mv) i mange forskellige typer computere. Det er modsvaret til en årelang udvikling, hvor man har forsøgt at samle mange ting i GPU'en vha. blandt andet energiineffektiv konvertering af instruktioner via CUDA, OpenCL mv.
|
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
Rasmus Larsen
Guld medlem FlatpanelsDK Oprettet: 23-Januar-2010 Sted: Danmark Status: Offline Point: 4461 |
Funktioner
Tak(0)
|
||
Så vidt jeg husker havde vi en lignende debat i 2016-2017 i forbindelse med lanceringen af PS4 Pro og Xbox One S. Dengang afviste du det også med henvisning til nogle få eksempler på HDR i PC-spil. Men hvis du skal zoome lidt ud, Torben, er vi så ikke enige om, at der var spilkonsollerne, der satte baseline for HDR i spilsammenhæng og i øvrigt skød det projekt rigtig i gang og udbredte det? Og hvis man skal tænke kontrafaktisk tror du så, at det ville være sket i samme tempo og standardisering i PC-økosystemet? Samme forhold gælder objekt-baseret lyd i spil, Dolby Atmos, DTS:X og Tempest Audio (MPEG-H). Omvendt har de modulære systemer været dem som presser opløsning og frame rate i vejret, for det er opgaver der af natur har rod mere i rå kræfter (i modsætning til tæt integration igennem kæden). Men vi er nået til et punkt, hvor yderligere fremgang i særligt opløsning ikke giver så meget længere. Pendulet svinger. Ligesom jeg opretholder en opdateret liste over 4K HDR-film, streamingpremierer og holdback-periode, så opretholder jeg en liste over konsolspil i 4K, HDR, 120fps, ray-tracing, Dolby Atmos mv. Indtil videre er den intern til brug for historik og reference, men jeg har allerede skrevet en kodeskabelon til at publicere den som en spildatabase – jeg ved ikke om jeg går videre med det. Der er mange flere konsolspil i HDR end 60-65 titler
|
|||
TV-databasen - Sammenlign TV - Flatpanels
|
|||
Besvar | Side <1 2122232425 33> |
Skift forum | Forum-tilladelser Du kan ikke oprette nye emner i dette forum Du kan ikke besvare indlæg i dette forum Du kan ikke slette dine indlæg i dette forum Du kan ikke redigere dine indlæg i dette forum Du kan ikke oprette afstemninger i dette forum Du kan ikke stemme i dette forum |