recordere.dk forum     Det danske community for hjemmets elektronik og indhold     Siden 2003
<b>Forside</b> Forside > Generelle emner > PC hardware & software
  Nye indlæg Nye indlæg  Seneste forum emner Seneste   Seneste forum emner (vindue) Vindue   De emner du deltager i Mine emner RSS Feed - Ny Generation af Grafikkort.
  FAQ FAQ  Søg i forum   Opret ny bruger Opret ny bruger  Log ind Log ind

Ny Generation af Grafikkort.

 Besvar Besvar Side  <1 22232425>
Forfatter
Besked
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 160
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 08:01
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Det ændrer ikke min pointe om, at mindre fokus på "AI" i spil er en brik i årsag-virkning. Vi har det ikke fordi man ikke har fokuseret på det historisk.
Din pointe var så vidt jeg husker at NPU'er ville muliggøre bedre AI i spil. Min pointe er at man allerede har kræfterne til bedre AI. Grunden til at udviklerne ikke fokuserer på det, er at spillerne ikke har det som fokus. Forestil dig en fuldt "udlært" Alphastar som standard AI i Starcraft II, det ville kun være sjovt for nogle få topspillere.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Valget om at øremærke en stor andel af transistorbudgettet til NPU er et langsigtet perspektiv ift. både hardware- og software-udvikling, og hvordan det kan muliggøre nye ting i fremtiden.
Hvad så med valget om ikke at lade antallet af NPU'ere stige i de forskellige varianter af M1? Fra M1 til M1 Max kommer der op til 4 ekstra high perfomance og 25 GPU kerner ekstra, mens antallet af NPU'er er det samme. De16 NPU'ere er endda magen til dem der sidder i en A14. 
Indikerer det at Apple mener deres NPU'ere er yderst brugbare og "the next big thing", som du bliver ved med at argumentere for? Virker det ikke nærmere som om at det er inkluderet for at arkitekturen skal være ens mellem deres telefoner, tablets og computere?

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Der er udviklerværktøjer til rådighed, som udbygges løbende.
Du mener Core ML ikke? De modeller som kan køre både på CPU, GPU og NPU?

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Jeg arbejder eksempelvis med billedredigering dagligt og for næsten hver store opdatering af Pixelmator Pro, så introduceres der nye billedredigeringsværktøjer, der tager NPU'erne i Apples-enheder i brug i takt med, at der udvikles nye ML-modeller.
Igen, Core ML er overhovedet ikke en garanti for at NPU'erne bliver brugt. Hvordan ved du at det er dem der kører de modeller du bruger? Det kunne ligeså godt være GPU eller CPU.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 3349
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 09:37
Man har da ikke kræfterne til bedre AI i dag. Det hjælper ikke meget, at nogle dyre, store og ekstremt energihungrende grafikkort i high-end PC'er kan. De sælges i meget få styk når man ser på markedet. Tjek bl.a. Steams opgørelse over bestand. Sådan foregår udbredelse ikke. Når disse muligheder derimod sidder i den telefon, tablet, laptop, TV-enhed og PC, som massemarkedet bruger, så kan man begynder at designe spil omkring disse princippet. Indtil da kan man kun gøre det valgfrit. Det er det jeg snakker om i tidligere indlæg.

At antallet af NPU'er ikke stiger i M1 er jo fordi det overordnet er samme grundchip, plus/minus binning og udbygning. Det er sådan man skaber en baseline på tværs af produkttyper (fra telefon til PC). Der er på den korte bane mere brug for CPU og GPU fordi udviklingsmiljøet kan tage de ting i brug med det samme. Det er jo en prioriteringssag, men det vigtigste når nye tiltag skal indkøres er at etablere en baseline. Derfra kan man udbygge baseret på feedback fra markedet.

Jeg ved, at NPU'en bruges fordi jeg har brugt mine programmer i mange, mange år og har mulighed for at sammenligne direkte imellem enheder. Udviklerne har i øvrigt udgivet dokumentation. Hastigheden, når disse værktøjer afvikles på NPU i en Apple-enhed, er ikke til at tage fejl af – det er voldsomt meget hurtigere. Læs eventuelt mit tidligere link om Core ML.

EDIT: I øvrigt er der den helt naturlige forklaring på, at M1 deler flere karakteristika med A14, at M1 er baseret på A14 strukturen.


Redigeret af Rasmus Larsen - 30-Marts-2022 kl. 09:54
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 160
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 10:43
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Man har da ikke kræfterne til bedre AI i dag.
Hvorfor har man ikke det? Som TBC1 tidligere har nævnt er maskinlæring blevet brugt til DLSS og raytracing. Hvis det gav mening på nuværende tidspunkt, ville man helt sikkert også have brugt det til AI. Tjek. evt. denne artikel, som er et interessant indlæg fra en der har beskæftiget sig med både spil AI og maskinlæring.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Det er jo en prioriteringssag
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Hastigheden, når disse værktøjer afvikles på NPU i en Apple-enhed, er ikke til at tage fejl af – det er voldsomt meget hurtigere.
Så Apple mener ikke det er nødvendigt med flere NPU'er i deres high end chips, end du finder i en iPhone 12? Så siger normal logik vel at det ikke er dem der giver den "voldsomt meget hurtigere" hastighed i de værktøjer du bruger? Hvis det var, ville de da umiddelbart prioriter dem langt højere.
En meget nem måde at teste det på er vel at se om en iPhone 12 eller iPad Pro er ligeså hurtig. Det burde den jo være hvis du har ret.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Udviklerne har i øvrigt udgivet dokumentation.
Nu har jeg kun skimmet det dokument du tidligere linkede til, men så vidt jeg kan se er der ikke nogen specifik information om at en model kan køres på NPU'en. Kan du henvise til et sted, så jeg slipper for at nærlæse? 
Github linket indeholder netop en liste over modeller som man ved kan køre på NPU'en alene, men igen er der ingen garanti for at de rent faktisk bliver sendt til den (en nævner specifikt at når chippen står idle, blev en model der kunne køre på NPU'en sendt til GPU'en).
I den forbindelse har du selv påpeget at en af fordelene ved M1 arkitekturen, er at den bestemmer hvilken processor en given instuktion bliver sendt til. Så hvordan kan du bedømme, eller udvikleren sige, om det kører på NPU'en? Det er vel chippen der vælger det?
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 3349
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 11:18
Oprindeligt skrevet af LeChuck LeChuck skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Man har da ikke kræfterne til bedre AI i dag.
Hvorfor har man ikke det?

Det argumenterer jeg da tydeligt for i forrige indlæg.

Oprindeligt skrevet af LeChuck LeChuck skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Hastigheden, når disse værktøjer afvikles på NPU i en Apple-enhed, er ikke til at tage fejl af – det er voldsomt meget hurtigere.
Så Apple mener ikke det er nødvendigt med flere NPU'er i deres high end chips, end du finder i en iPhone 12?

Se mit forrige indlæg. M1 er baseret på A14 (i iPhone 12) strukturen.

Jeg forstår ikke, hvorfor du bliver ved med at stille de samme spørgsmål. Svaret er: Baseline.


Oprindeligt skrevet af LeChuck LeChuck skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Udviklerne har i øvrigt udgivet dokumentation.
Nu har jeg kun skimmet det dokument du tidligere linkede til, men så vidt jeg kan se er der ikke nogen specifik information om at en model kan køres på NPU'en. Kan du henvise til et sted, så jeg slipper for at nærlæse?

Ja det afvikles lige så hurtigt på iPhone og iPad med NPU. Som sagt sidder jeg med opgaver dagligt, som afvikles på denne måde. Der er ikke tale om forbedring i 20-30% boldgaden. Der er tale om adskillige faktorer hurtigere afvikling på Apple-enheder med NPU ift. systemer med tilsvarende CPU/GPU (uden NPU). Søg eventuelt på Pixelmator Pro, Topaz Video og andre apps, der kører native på M1 Mac. Der er masser af dokumentation og indlæg fra brugere.

Om der er en garanti for, at det afvikles på NPU'en er det du hænger dig i. Alle "neurale" udregninger i dag skifter imellem processortyper. Maskinlæring eller afvikling af en algoritme er sekventeret. Der kan være enorme datasæt, der sekventeres i f.eks. et GaN (Generative adversarial Network). Visse lag/skridt i sekvensen afvikles på NPU eller tilsvarende, andre på GPU eller CPU. De dele af sekvensen, som kan afvikles på NPU'en er foreskrevet i NPU-arkitekturen / frameworks. De andre skal beregnes på mere almennyttige processortyper; direkte eller vha. konvertering af instruktioner via CUDA, OpenCL mv. Med tiden kan man tage de dele, som ikke kan afvikles på NPU'en endnu, og udvide framework så de kan, men der skal være nogle fællesnævnere før det er muligt. Til meget maskinlæring vil der være nogle håndskrevne sekventeringer, der skal afvikles andetsteds. Måske man en dag også kan afvikle alverdens håndskrevne sekvenser, men ikke lige pt. Fra Core ML 1 til 3 – men ikke 2 – er der kommet en del flere supporterede sekventeringer til. Det fortsætter i fremtiden.

Det er i øvrigt på samme måde, at man har udviklet GPU'en til at omfavne flere og flere opgaver igennem tiden.


Redigeret af Rasmus Larsen - 30-Marts-2022 kl. 11:34
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 160
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 13:30
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Det argumenterer jeg da tydeligt for i forrige indlæg.
I Steam sidste opgørelse er der 12% der sidder med en RTX 3000 series GPU. Det burde da være en ok "baseline". Ydermere er det ikke nødvendigt med det nyeste af det nye, for at køre modeller bygget via maskinlæring.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Jeg forstår ikke, hvorfor du bliver ved med at stille de samme spørgsmål. Svaret er: Baseline.
Min pointe er at Apple umiddelbart ikke ser det store potentiale i at øge antallet af NPU'er. Som du selv skrev er det en prioritering, og de mener åbenbart at de får et bedre resultat ved at bruge transistorer på andet.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Alle "neurale" udregninger i dag skifter imellem processortyper.
Det er jo det der har været min pointe fra starten af. I mit allerførste indlæg nævner jeg at NPU'erne i M1 er begrænset, hvilket du opponerede imod.
Misforstå mig ikke, der er helt sikkert nogle specifikke beregninger den er kanon til. Det er jo det der er kendetegnet på en specialiseret chip (du nævner selv hardware accelerering af video codec). Men det betyder også at ligeså snart man går ud over specialiseringen, kan den ikke bruges / bliver den langsommere end CPU / GPU.

Fra mit synspunkt har Apple i sin tid introduceret NPU'erne for at accelerere Siri, ansigtsgenkendelse og andre specifikke funktioner som bliver brugt millioner af gange hver dag på deres enheder. De har så udvidet og åbnet den, så den kan køre andre lignende modeller. 
Jeg er temmelig sikker på at hvis M1 havde været tænkt som desktop chip fra begyndelse, ville transistorerne være blevet brugt på CPU / GPU i stedet. De kunne sættes i arbejde uanset hvilken opgave du har gang i.

Mit indtryk fra specielt dine første indlæg, er at du mener at NPU'erne kan køre alt, og senere indlæg antyder at den i hvert fald vil kunne det med tiden. 
Det er derfor jeg er blevet ved med at fokusere på hvad der egentlig kørte på den, og ærlig talt synes jeg at jeg er nået fint igennem med at den er begrænset.

Du mener der vil komme dedikerede NPU'ere. Men set fra mit synspunkt baserer du din mening på den totale ydelse af Apples M1 arkitektur (Core ML, CPU, GPU osv.). Et andet problem er at hvis du vil have en NPU, der skal kunne klare alle slags beregninger der har med maskinlæring af gøre, ender du med et GTX 3090 eller lignende. 
Personligt mener jeg det er derfor Apple vælger at bibeholde et relativt lavt antal NPU'ere, men skruer op for CPU og GPU kerner. Sidstnævnte kan bruges som man vil.
Til top
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4251
Funktioner Funktioner   Tak (1) Tak(1)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 18:05

Hej.

Intel har lige lanceret sit Arc 3 grafikkort til laptops. Arc 5 og Arc 7 kommer til sommer.
De vil få hardware decodning og encodning af AV1 codec, og den første laptop kan forudbestilles allerede i dag.

Desktop Grafikkort forventes i Q2 og Workstation Grafikkort i Q3.


Og linket til den 19 minutter lange YouTube præsentation:


Hilsen Carsten



Redigeret af csell - 30-Marts-2022 kl. 18:10
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 3349
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 31-Marts-2022 kl. 06:19
12% er ikke nok til at skabe et spil, hvor algoritmerne – "AI" om man vil – er grundlaget for spillet. F.eks. for at fjenderne eller byer kan fungere. Så begrænser man jo sig selv til denne købergruppe. Det kan højest blive en valgfri del af spillet, og selv på det valgfrie plan har der historisk været og stadig i dag efterspørgsel på forbedring.

Lad mig give et eksempel. I de tidlige dage, hvor professionelle computerspillere var noget man begyndte at høre om i Sydkorea og Japan, spillede jeg Warcraft 3 på konkurrenceplan. Vores hold trænede flere gange ugentligt, enten mod hinanden, mod "computeren" eller online. Træning mod computeren på højeste sværhedgrad var for nemt og ensformigt. Allerede dengang var der behov for bedre "AI" på valgfri plan. En af vores spillede, Thomas, fortsatte efter os andre og vandt pengekonkurrencer i Asien, men han var så også på et andet niveau end os andre – blot en sidebemærkning Smile

Men "AI" kan jo bruges til meget mere end en computer-modstander i Starcraft eller Warcraft. Det er alt fra hvordan en enkelt NPC bevæger sig til hvordan samspillet er mellem NPC'er til hvordan træer reagerer ift. omgivelserne. Før man kan designe spil på denne måde, kræves en baseline. Ligesom spil skabt til touch som udgangspunkt kræver touch, så vil spil opbygget til cloud kræve cloud-servere og spil skabt funderet i AI kræve systemer, der kan afvikle dem. Jeg spiller aktuelt Horizon Forbidden West og to af mine største irritationsmomenter er de dårlige 'fysiske love' og personer/robotters ageren. Det virker mere forstyrrende for mig end alle de små grafiske fejl, som mange omtaler.

Igen, der kræves ikke 16 NPU-kerner til Siri mv.

Jeg har da ikke på noget tidspunkt skrevet, at NPU'er kan køre alt. Tværtimod faktisk. Jeg har skrevet, at et integreret design med CPU, GPU og NPU (og UMA) giver fleksibilitet til at tage NPU i brug i samspil med CPU og GPU. Gå gerne tilbage og læs mine indlæg om integreret vs. modulært design fra før du deltog aktivt i tråden. Derimod måtte du korrigere din egen udtalelse om "meget specifikke modeller" efter både Torben og jeg kommenterede på dit indlæg, samt misforståelsen om at NPU'en kun er til "afspilning", og det er sidenhen blevet klart, at du reelt ikke har praktisk erfaring med det.

En GPU var også engang en specialiseret chip, hvorfor det ikke giver mening at tale om NPU'en ud fra et øjebliksbillede.

"Et andet problem er at hvis du vil have en NPU, der skal kunne klare alle slags beregninger der har med maskinlæring af gøre, ender du med et GTX 3090 eller lignende."

Øhh... hvad? Smile Det er jo netop det som GTX 3090 ikke kan. Den skal parres med en CPU og andre ting. I M1 sidder der både CPU, GPU og NPU, foruden andre ting. Det er et integreret system.

"Personligt mener jeg det er derfor Apple vælger at bibeholde et relativt lavt antal NPU'ere, men skruer op for CPU og GPU kerner. Sidstnævnte kan bruges som man vil."

Apple er langt foran deres direkte konkurrenter på NPU, så hvorfor prioritere det? Første prioritet er at matche konkurrenterne på CPU og GPU. Det er der da intet mærkeligt i.


Redigeret af Rasmus Larsen - 31-Marts-2022 kl. 06:48
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 160
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 31-Marts-2022 kl. 07:40
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Jeg har da ikke på noget tidspunkt skrevet, at NPU'er kan køre alt.
Så vidt jeg husker skrev du at M1's NPU'er kunne køre mange Core ML modeller og også selve indlæringen. 
Jeg skal være den første til at indrømme at jeg ikke arbejder med maskinlæring til hverdag. Men så vidt jeg ved er M1 et hermetisk lukket system, hvor udviklere ikke kan kalde NPU'en direkte og der er ikke frigivet nogen specifikationer på dem. Så jeg er ærlig talt temmelig imponeret over at du ved hvor mange og hvilke modeller der kører på den og at den kan klare selve indlæringen. 

Udover det så er jeg temmelig sikker på at Intel, AMD, nVidia m.fl. vil forsætte som de altid har gjort, og hardware accelerere de funktioner der giver mening.
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1795
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 31-Marts-2022 kl. 18:38
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Så vidt jeg husker havde vi en lignende debat i 2016-2017 i forbindelse med lanceringen af PS4 Pro og Xbox One S. Dengang afviste du det også med henvisning til nogle få eksempler på HDR i PC-spil.

Hvad jeg afviste den gang var at HDR var noget der kun var at forbinde med konsol. Det jeg afviser i dag er udsagnet om at HDR stadig ikke skulle være slået igennem til PC, med henvisning til de mange allerede eksisterende titler og det at nye spil der udgives i HDR på konsol (hvilket jo så i øvrigt gælder begge konsolsystemer efterhånden) generelt også udgives med HDR på PC. Så jeg kan bestemt ikke genkende at HDR ikke skulle være slået igennem til PC spil.
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Men hvis du skal zoome lidt ud, Torben, er vi så ikke enige om, at der var spilkonsollerne, der satte baseline for HDR i spilsammenhæng og i øvrigt skød det projekt rigtig i gang og udbredte det? Og hvis man skal tænke kontrafaktisk tror du så, at det ville være sket i samme tempo og standardisering i PC-økosystemet?

Samme forhold gælder objekt-baseret lyd i spil, Dolby Atmos, DTS:X og Tempest Audio (MPEG-H).

Omvendt har de modulære systemer været dem som presser opløsning og frame rate i vejret, for det er opgaver der af natur har rod mere i rå kræfter (i modsætning til tæt integration igennem kæden). Men vi er nået til et punkt, hvor yderligere fremgang i særligt opløsning ikke giver så meget længere. Pendulet svinger.
Hvis jeg skal zoome helt ud, så jo, så finder jeg netop at vi grundlæggende er enige, selv om vi vedvarende betoner to forskellige perspektiver. For vi giver åbenlyst begge tilbagemeldinger der viser at vi anerkender det perspektiv, de tanker og det fokus den anden fremhæver som udgørende et sandt aspekt og anerkender dermed begge de 2 forskellige sider af mønten - også den side den anden så vedvarende betoner/forsvarer - Jeg vil endog gå der til, at jeg ligefrem vil sige at aspekterne vi tilsammen har betonede, tilsammen udgør en synergisk effekt, hvor jeg så glæder mig over at kunne plukke imellem de mere højtsiddende frugter, som udgørende den fordel jeg stadig ser i modulære PC-systemer, når jeg spørges til sådanne. Når jeg zoomer ud, kan jeg kun se at vi grundlæggende er enige. Jeg ser jo dig sige ting som bl.a. ovenstående om at det er modulære systemer der presser performance i vejret og du vil også kunne se at jeg flere gange tidligere i debatten har udtrykt tanker i samme retning som mit, synes jeg selv ellers ret klare udsagn om min holdning til sagen, som bl.a.: "Samtidig kan man som entuisiast så stadig takke fremskridtene på de integrerede systemer for at den lavere almene eller generelle baseline for spildesign og grafik sættes højere end i tidligere generationer, når de integrerede systemer bevæger markedets baseline frem mere konsistent i skridt end det modulære marked gør." ...Så jeg har svært ved at se hvad det er vi skulle være direkte uenige om, da vi jo begge har ret i hvad vi fremhæver og begge erkender perspektivet den anden så vælger at betone og fremhæve. Skulle vi svare hinanden yderligere tilbage med gentagelser af betoninger, ville vi jo kun køre i ring, som enige, uden at det måske er til at se?

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Ligesom jeg opretholder en opdateret liste over 4K HDR-film, streamingpremierer og holdback-periode, så opretholder jeg en liste over konsolspil i 4K, HDR, 120fps, ray-tracing, Dolby Atmos mv. Indtil videre er den intern til brug for historik og reference, men jeg har allerede skrevet en kodeskabelon til at publicere den som en spildatabase – jeg ved ikke om jeg går videre med det. Der er mange flere konsolspil i HDR end 60-65 titler Smile

Det synes jeg da bestemt du skulle gå videre med Smile ...Hvis det skal udnyttes redaktionelt, så er det jo mere relevant i 2018 end det er er 2022 og mere relevant i 2022 end det vil være i 2226, da HDR som jeg opfatter det, jo i dag er blevet at regne som normen i grafisk mere komplekse AAA titler, på både konsol og PC. ...Som sagt kunne jeg kun finde en 9 måneder gammel liste med lidt over 50 PS4 spil (den var fra pushsquare), så hvis du lægger inde med bedre oplysninger til PS5, XBox S/X og også gerne PC, så bør de da imho udnyttes nu, mere end om yderligere 4 år fra nu. ...Hvis det er det med vedligeholdelsen der giver betænkeligheder, så kan man jo evt. bare nøjes med en statusartikel der ikke løbende opdateres, sådan har den mest komplette liste jeg lige kunne finde jo også tilladt sig at være.
Oprindeligt skrevet af csell csell skrev:

Intel har lige lanceret sit Arc 3 grafikkort til laptops. Arc 5 og Arc 7 kommer til sommer. De vil få hardware decodning og encodning af AV1 codec, og den første laptop kan forudbestilles allerede i dag. Desktop Grafikkort forventes i Q2 og Workstation Grafikkort i Q3.
Og linket til den 19 minutter lange YouTube præsentation:

Tak, har jeg glædet mig til at se. Skønt at Intel melder sig på banen til yderligere konkurrence. Jeg så hele den 19 minutter lange præsentation og sidder dog tilbage med en smag af skuffelse, da det alt sammen var meget "underwealming" i forhold til hvad jeg havde håbet på Cry ...Men i det mindste kan jeg da trøste mig ved at det nok også omhandler at det vel primært var de integrerede mobile ARC produkter der blev fremlagt i præsentationen og det jo stadig har en betydning - Jævnfør perspektivet Rasmus betoner - mens vi så stadig har til gode at se ydelsen på de diskrete kort vi skulle høre mere om i Q3 og hvor Intel lander i forhold til konkurrenterne der? ...For aktuelt var der i hvert fald ikke tale om noget så meget som bare i nærheden af alternativer til disse.

Jeg tænker i forlængelse af debatten jeg har haft med Rasmus, at det faktisk er interessant at betragte at Intel her så at sige lader til at dække begge sider af mønten Rasmus og jeg har pudset hver sin side af, ved at sætte en højere baseline i det integrerede produkt og stadig gå efter den højeste ydelse med de senere kommende diskrete GPU add-on kort. Er det mon fortsat mønstret for nu og Gud må vide hvor mange af de kommende år frem? 

Af andre kommentarer til de nye sager fra Intel, så har jeg tidligere afsløret at jeg aktuelt ikke ser grund til at opgradere min CPU af hensyn til spil, men at andre forhold kunne gøre det aktuelt. Her kan jeg så afsløre at det faktisk handler om AV1 hardware accelereret encoding, hvor kravet tidligere har været en nyere Intel CPU sammen med ikke mindre end 48 Gb Ram, men at ARC arkitekturen lader til at adressere og forbedre dette aspekt gevaldigt. Et kvalitetsencode til AV1 i software som jeg aktuelt benytter mig af tager evigheder!). Jeg går ikke umiddelbart og regner med at et RTX 4090 skulle få AV1 encode, da jeg ikke tænkte at det var et relevant fokus, men Intel videoens præsentation af streaming mht. H.264 og AV1 viser jo hvor relevant det kan være. Så måske skulle jeg vente og se hvad der sker med næste GPU generation?

Det der imho er den største og mest imponerende landvinding var at XeSS, som jeg tidligere også har set eksempler af det fra YouTubere (var det Digital Foundry måske?) faktisk er ret godt og langt tættere på DLSS end FSR af kvalitet - Det så godt nok ud som om Intel også samtidigt havde tweaket nogle uønskede sharpness funktioner i deres præsentationen [...]

EDIT: Det ser ud til at præsentationsvideoens elendige 1080p encode har spillet ind og det nok har været encode artifacts, da det ser mindre kompromiteret ud i et 4K encode: https://youtu.be/Y9hfpf-SqEg og https://youtu.be/B0tOOlr6H74 og åbenlyst minder helt utroligt meget og DLSS, fraset at der tydeligt er langt mere aliasing end med DLSS, men det er så måske fordi jeg er vant til at se på Quality (1440p) og ikke performance (1080p) upscales til 4K?]

[..] men man kunne stadig se at den grundlæggende billedrekonstruktion, stabilisering og detaljegradsforbedring af normalt aliasied og ustabile elementer stadig var relativt godt på plads i XeSS - Helt overensstemmende med hvad jeg har set præsenteret om XeSS andet sted tidligere - Så det var faktisk højdepunktet for mig i præsentationen, da det er i direkte konkurrence til DLSS som Nvidia derfor fortsat tvinges til fortsat at ofre mere end almindelig opmærksomhed, hvis de vil være sikre på at kunne blive ved med at henvise Intel på 2 pladsen over årerene der kommer. Og AMD er nu i endnu højere nødt til også at finde et svar på de andre aktøres AI opskalering, så de modsat med et svært skuffende alene temporalt funderet FSR reelt kommer med på spillepladen og med i konkurrencen so to speak. Men XeSS! TongueClap


Redigeret af TBC1 - 02-April-2022 kl. 18:57
PC:I7 7700K,RTX3080 G-X trio,16GB DDR4,1TB M.2 SSD/60TB HDD,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV 4K
Til top
csell Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 16-Juni-2006
Sted: Denmark
Status: Offline
Point: 4251
Funktioner Funktioner   Tak (0) Tak(0)   Citér csell Citér  BesvarSvar Direkte link til dette indlæg Sendt: 13-Maj-2022 kl. 00:09

Hej.

I forgårs kom AMD med opdaterede versioner af deres nuværende Grafik kort.
Men næste generation af både AMD RDNA 3 og Nvidia RTX 40xx forventes allerede klar i næste halvår.
Men her er nogle links:



Og i dag kom AMD så med Fidelity FX Super Resolution 2.0 (FSR 2.0), som er deres opskalerings teknologi, der kører på alle GPU'er.
Her er nogle links:
 
'AMD FSR 2.0 Goes Head-to-Head With DLSS and Works on 'All' GPUs'


'AMD FSR 2.0 Quality & Performance Review - The DLSS Killer'


Hilsen Carsten.



Redigeret af csell - 13-Maj-2022 kl. 00:09
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1795
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 13-Maj-2022 kl. 20:24
Den største og bedste nyhed i ovenstående er helt bestemt at FSR er kommet tættere på at kunne bide DLSS i haserne. Jeg tænker også at FSR umiddelbart ikke kan undervurderes i forhold til hvor overmåde vigtigt det kan være for konsollerne, som jo så vil kunne få titler med FSR 2 i stedet for at afhænge af en ringere checkerboard upscaling. Det kan få substantielt betydning for spillenes visuelle udtryk på konsollerne, som med deres hardwarebegræsninger jo har mere end svært ved at indfri et 4K render. 

Hvad angår GPU'erne er det helt klart RDNA 3 og Nvidia RTX 4000 serierne der bliver interessante at følge, mens begge producenters refreshs har været - skal vi bare kalde det - som forventet. Men man taler allerede nu om at det i næste generation kunne blive både AMD og Nvidia der med et fremtidigt premiumkort potentielt kunne blive de første der når over 100 TFlops stregen Hug

Digital Foundry har også deres FSR 2 anmeldelse klar - Video giver et LANGT mere klart og et substantielt bedre indtryk af forskellene:


Video: https://youtu.be/y2RR2770H8E

Virkeligt et tigerspring fra FSR 1, selv om der imho er for meget kunstig sharpening på som default og der stadig mangler nogle aspekter og lidt kvalitet ifht DLSS - Men en virkeligt, VIRKELIGT god og vigtigt nyhed Smile - og nu er det jo faktisk blevet at regne som noget der omtrent kan konkurrere med både DLSS og native resolution modsat med version 1 som imho var en fæl skuffelse der slet ikke kunne konkurrere med nogen af delene.




Redigeret af TBC1 - 14-Maj-2022 kl. 18:04
PC:I7 7700K,RTX3080 G-X trio,16GB DDR4,1TB M.2 SSD/60TB HDD,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV 4K
Til top
ASKF Se dropdown menu
Bruger
Bruger
Avatar

Oprettet: 24-Oktober-2015
Sted: Ålborg, DK
Status: Offline
Point: 175
Funktioner Funktioner   Tak (0) Tak(0)   Citér ASKF Citér  BesvarSvar Direkte link til dette indlæg Sendt: 20-Maj-2022 kl. 10:49
Er der nogen af jer, som har et bud på om chipmanglen vil forsinke udviklingen i kravene i spil til grafikchip?

Hvis der ikke er nok som løbende har kunne opgradere, vil det velsagtens betyde at udviklerne tvinges til ikke at hæve minimumskravene, da det kan gå ud over salget.
Til top
 
 Besvar Besvar Side  <1 22232425>
 
Skift forum Forum-tilladelser Se dropdown menu