recordere.dk forum     Det danske community for hjemmets elektronik og indhold     Siden 2003
<b>Forside</b> Forside > Generelle emner > PC hardware & software
  Nye indlæg Nye indlæg  Seneste forum emner Seneste   Seneste forum emner (vindue) Vindue   De emner du deltager i Mine emner RSS Feed - Ny Generation af Grafikkort.
  FAQ FAQ  Søg i forum   Opret ny bruger Opret ny bruger  Log ind Log ind

Ny Generation af Grafikkort.

 Besvar Besvar Side  <1 2627282930 33>
Forfatter
Besked
Lort Se dropdown menu
Ny bruger
Ny bruger
Avatar

Oprettet: 26-September-2022
Status: Offline
Point: 8
Funktioner Funktioner   Tak (0) Tak(0)   Citér Lort Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-September-2022 kl. 14:36
Nej det ville ikke være værd at vente på 4090 Ti, men 120 fps på 4K/UHD er ikke specielt svært i dag medmindre du vil maxe alt ud inklusiv ray tracing og så vil jeg vædde med at 4090 heller ikke kan det, især ikke uden fake frames fra DLSS 3.0;


Jo din CPU holder et 4090 tilbage, det er 100% sikkert. Det virker jo helt tåbeligt at du vil smide så mange penge efter en GPU uden at opgradere selve basen for platformen, som er forældet. At du spiller med overlay på ændrer ikke på at utallige spil i dag ikke har nok i 4 kerner, det er nærmest low-end i dag og det ændrer opløsningen og detaljegraden ikke rigtigt på.

Jeg har spillet mange spil der har bedre stemining end Metro Exodus, et spil som jeg gik død i efter 2 timer fordi det var for kedeligt. Men kan være det skal genoptages engang når der ikke er andre spil med større prioritet. Var skuffet over spillet især ift. 1eren og 2eren som jeg gennemførte, men gik død i Exodus over flere omgange. Sidste gang jeg genoptog det, var netop da Enhanced Edition udkom og det ændrede i min optik tæt på intet. Det var minimale forbedringer. Nvidia havde betalt udviklerne for den version, hvis du skulle være i tvivl (Google det gerne).

Nej "eye candy" har aldrig været det vigtigste for mig, jeg foretrækker et meget smooth gameplay til enhver tid over eye candy. Det er unbeatable når vi snakker immersion for mig og jeg spiller også utallige multiplayer spil hvor det giver andre fordele med høj ydelse. Når man først trækker 200-300 fps på 240-300 Hz i 1440p så kører det bare sublimt og rigtigt nok, her betyder CPU og RAM langt mere end 4K gaming ved 30-60-120 fps. Jeg kan godt acceptere 120 fps, men helst i single player spil hvor jeg typisk så også hæver detaljerne lidt, men der er mange ting jeg hader i "ultra presets" såsom dof, motion blur, lens flare og alt det som efter min mening gør grafikken dårligere, frem for bedre. Derfor tweakes alle mine spil til perfektion, hver gang og resultatet ender altid med at være bedre kvalitet end ultra, med langt højere ydelse.

På stuens 123 tommer? Så gætter jeg på vi snakker projektor og ja så er vi i hver vores ende af hvad vi søger. Jeg kunne aldrig acceptere at spille på en projektor, eller bare at se film på en projektor for den sags skyld. HDR er det største der er sket for spil, film og serier i mange år og det kan projetorere ikke gøre ordenligt, faktisk langt fra + ekstremt dårligt sort niveau og kontrast. Så ville jeg nærmest hellere sidde med en stor LCD skærm, selvom jeg aldrig kommer væk fra self emitting tech som OLED, der blev skiftet for mange år siden. Den eneste LCD skærm der er tilbage i huset er på PC, da det stadig er at foretrække over OLED pga. refresh rate og ingen burn-in risk.

Det lyder til du har ædt alt deres marketing rådt, for der er utallige tråde og video'er omkring DLSS 3.0 allerede. Jeg skal se noget mere om det, eller prøve det selv, før jeg overhovedet vil anerkende det fps boost man får. For jeg har set mange dårlige DLSS implementeringer allerede og DLSS 3.0 lyder som noget værre lort for at sige det mildt. Noget jeg aldrig ville bruge i et spil, knap nok i et single player spil. Jeg kan ikke acceptere forhøjet input delay på bekostning af ydelse SOM SÅ alligevel ikke kan bruges til noget.

DLSS 3.0 = FPS er højere men input delay er ikke lavere = Modsætninger... Giver ikke mening, kun på papir. Nok derfor Nvidia fremhævede forskellen mellem Ampere og Ada med hhv. DLSS 2.x og 3.0 aktiveret.

Hvis du ser youtube video'er fra store youtubere, så vil du også se at 4000 serien skuffer. De fremhæver mest deres propritære teknologier uden at snakke ret meget om det faktisk ydelsesspring, som på ingen måde nærmer sig de 2-4 gange som de snakker om. Men det vil du snart opleve, når vi ser de første officielle 3. parts anmeldelser af 4090.

DLSS 1.x var ubrugeligt.

DLSS 2.x var godt, i nogle spil.

DLSS 3.0 virker indtil videre at være en gimmick. Men vi får at se. Jeg regner selv med at have et 4090 i hænderne inden November til test. For som jeg allerede har nævnt, så foretrækker jeg hands-on eller unbiased anmeldelser af nyt hardware. Jeg lytter meget lidt til hvad firmaerne selv har at sige om produktet, medmindre det er de hårde specifikationer. Alle fps sammenligninger vil være tæt på ubrugeligt da de altid vil håndplukke resultater som får deres produkt(er) til at fremstå bedst, det er logik og ren business.

Som sagt prøver jeg ikke at tale noget ned, jeg er bare overhovedet ikke overbevist overhovedet før der er lavet mere test og helst hvor jeg selv roder med det. Jeg kommer stadigvæk ikke til at betale 16-18k for en GPU af mine egne penge uanset hvad, for det er slet ikke nødvendigt for mig, da mit 3080 @ 2.2 GHz stadig trækker alt til perfektion. Jeg afventer gerne AMDs 7000 serie + 4080 Ti / 4070 Ti og ser tiden an. Markedet vælter med GPU'er og jeg er stensikker på at Nvidia kommer til at sænke deres priser, nok også kraftigt, hvis de forventer at 4000 serien skal få ret stor udbredelse og at AMD ikke æder en god procentdel af markedet, såfremt de prissætter deres nye kort bedre.

Jeg tror du glemmer at Nvidia's salg primært foregår i low til mid-end segmentet. Det er under 5% som køber kort som Titan og x90 serien. Det er ikke her de tjener deres penge. Det er bare et statement om hvad deres bedste ydelse er. Hvis Nvidia kommer til at gimpe hele 4000 serien fra 4070 og ned, med lav bus og manglende VRAM, så vil det blive et problem for dem. Men det finder de nok ud af på sigt. Kort som x60 og x70 er typisk dem der sælger i spandevis og det lyder allerede til at 4060 bliver gimpet med PCIe x8 istedet for x16, det vil betyde at folk som sidder med PCIe 3.0 får et kæmpe tab i ydelse, bare som et eksempel. 4070 får forhåbenligt 192 bit som 4080/12GB og samme antal VRAM, men rygterne lyder på 160 bit og 10GB som det er nu.

Jeg har selv rodet meget med DLSS 2.x - altid hadet DLSS 1.x - og jeg har også set scener hvor det grafisk ser bedre ud end native 4K, men jeg har også set mange spil hvor det ser dårligere ud, så det er mere et resultat, selv i samme spil hvor nogle steder i spillet ser bedre ud med DLSS 2.x

Jeg synes det er spændende at FSR 2.x nærmest er på niveau med DLSS 2.x uden at kræve speciel hardware.

Jeg ikke fan af Nvidias tilgang med at låse features til egne kort og endda også segmenter af egne kort.

DLSS 2.x indfører faktisk ikke yderligere latency, da højere fps betyder lavere input delay. Det bliver ikke tilfældet på DLSS 3.0, da man får frames som ikke indeholder brugerens input.

Der er masser af video'er om DLSS 2.x og input lag og så længe fps er højere, er input delay lavere. Den logik, vi kender.



Redigeret af Lort - 28-September-2022 kl. 14:52
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1970
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-September-2022 kl. 21:04
Oprindeligt skrevet af Lort Lort skrev:

Nej det ville ikke være værd at vente på 4090 Ti, men 120 fps på 4K/UHD er ikke specielt svært i dag medmindre du vil maxe alt ud inklusiv ray tracing og så vil jeg vædde med at 4090 heller ikke kan det, især ikke uden fake frames fra DLSS 3.0;

DLSS 3.0 - https://www.youtube.com/watch?v=qFMSgzJlzFI

Jeg undrer mig virkelig over at du linker til en video der ikke bringer noget som helst nyt til bordet (ud over fordomme og holdninger), i forhold til hvad vi allerede har været omkring og i forhold til hvad jeg langt mere objektivt allerede selv har beskrevet på forangående side, endog med benævnelsen af flere af de game engine aspekter der tages i brug end han får frem i videoen, som gør at DLSS 3 teknologisk adskiller sig fra almindelig videomaterialebaseret motion interpolation. I det hele taget lader det til at du kører i ring med de samme jante-indsigelser og fordomme, uden at tage noget at det jeg skriver i betragtning, så mit svar til det er blot:

1. Tror du ikke vi skal vente med at se egentlige reviews eller endnu bedre analyser, før vi sådan mere fordomsfuldt konkluderer noget endeligt?

2. Jeg har meget mere tillid til langt mere objektive analytikere end ham den svært forudindtagede og holdningsprægede pundit der gør brug af meget ladede og forudindtagede ord og holdninger, som du linkede til. F.eks. har jeg LANGT større tillid til folkene hos Digital Foundry. For det første er de langt mere objektive end at sidde og skrige ord som løgn og fake, for det andet ligger analyser af den her slags teknologier netop inden for deres fokus og kompetenceområder. De kommer meget snart med analysevideoer, hvor de vil påpege både fordele, udfordringerne og ulemperne.

DET eneste jeg reelt konkluderer på forhånd, i modsætning til dig der taler om det med langt mere "afklarede" negative, forudindtagede og fordomsfulde ord som fake, gimmic mv, er faktisk blot at jeg ikke er så bekymret og "dommdags indstillet" som du lyder til at være, slet ikke efter at have hørt hvad Digital Foundry allerede har antydet om teknologien - For både det de har afsløret og de videoer der som linket til indeholder eksempler på den slags artifacts der vil være (lige som også DLSS 2 og FSR 2 har artifacts - mens teknologierne dog alligevel samlet set oftest vil være fortrække brugen af som bedre end native rendering), giver så bare ikke mig og alle andre mere objektivt orienterede og afventende anledning til den samme store "bekymring" eller rettere forudtagede afvisning med fordomsfulde negativt ladede udtyk på forhånd, som du og den pundit du linker til baserer sig på. Han minder mig lidt om Jason "Jay" Langevin. Jeg synes egentligt om Jay, man han kan også være en hysterisk uligevægtig kælling på mange områder, med indhold der er meget holdningsbaserede og ikke alene baserer sig på objektive analyser, som er hvad jeg elsker ved Digital Foundry og HDTV tests og den slags analytikere som er den slags der nyder min respekt og ikke bare min sympati.

3. Idet dit svar åbenlyst slet ikke forholder sig til hvad jeg ellers ret nøgternt og objektiv skrev om både potentialer og udfordringer, samt forskelle til normal videobaseret motion interpolation og articats på forgående side, så kører du egentligt kun samtalen i ring om dine fordomme, ved helt upåagtet hvad jeg skrev om sagen blot at gentage de samme fordomme og bare double down på dem. Så kan jeg vel også tillade mig at gentage mig selv, så her kommer det lige igen:

Jeg er ikke som dig så nervøs for DLSS 3's frame creation, for DLSS er fra start bygget op omkring analyse af bl.a. både motion vectors og temporale billedaspekter, så den temporale opskalering der nu tilføjes, er som jeg ser det, kun en helt naturlig evolution af teknologien og dens potentialer. Så nej, jeg ser ikke en kæmpe forskel på at beregne størstedelen af de pixels der ikke i forvejen eksisterede i en frame fra bl.a. temporale aspekter og motion vectors og så at beregne en frame der ikke i forvejen eksisterede fra bl.a. nøjagtigt de samme basis elementer; herunder motion vectors og de temporale aspekter der således danner basis for begge dimensioners opskaleringsforbedringer. Det er lidt 2 sider af samme mønt. Ser man analytisk på sagen angående hvad der reelt findes at kunne opskalere, så handler det jo om, at de aspekter hvor man kan forbedre opløsningen udgøres af den spatiale og den temporale opløsning. DLSS 1+2 forbedrede den spatiale opløsning (og AA) og DLSS 3 kommer så til at forbedre den temporale opløsning oven på dette allerede eksisterende aspekt. Begge dele vil komme til at bidrage positivt - Det er jeg slet ikke i tvivl om og det er Digital Foundry åbenlyst heller ikke. De grunde der er til at jeg ikke er nervøs er (1) at Digital Foundry allerede i de 2 hidtidige videoer om emnet (den seneste fra i går + teaser-traileren om de kommende analyservideoer) har afsløret at resultatet samlet set er rigtigt godt - de er allerede i fuld gang med at dybdeanalysere det mht til både styrker og svagheder. De har også allerede både omtalt og i det små fremvist at artifakterne [der som med DLSS 2's spatiale opskalering vil være der i en eller anden udstrækning hvis man jagter og leder grundigt nok efter dem] er MARKANT mindre end 2D baserede temporale opskaleringer, som kendt fra TV, off-line AI baserede spatiale og temporale opskaleringsprogrammer mv, da DLSS 3 jo (og det er så grund nr. 2) har den luksus at kunne gøre brug af en game-engines eksisterende 3D informationer angående bl.a. motion-vectors og at kunne kombinere motion vectors med opical flow analyse samt udnytte data fra color-buffers og z-buffers indeholdende 3D dybdeinformationerne og informationerne om objekternes indbyrdes placeringer og bevægelser mv. i spillets 3D rum. Det er forhold som egentlige/regulære video opskalerings algoritmer til spatial og temporal opskalering IKKE har at gøre godt med, selv ikke de tungeste off-line versioner kan drømme og så begunstigede data at bygge arbejdet på som fundament. Så DLSS 3's framecreation er med andre ord ikke bare at regne som lige med eller identisk til den video motion interpolation vi kender fra TV, eller for den sags skyld off-line AI video opscalere, men noget der er begunstiget med game engine data som fundament til at kunne arbejde ud fra på dette fundaments højere niveau, med en sådan direkte tilkobning til en game-engines informationer. (3) Jeg er bekendt med hvordan det menneskelige syn fungerer og hvad der overhovedet opfattes "live" af artifakter mens FPS'ene flyder, særligt ved høje framerates og (4) artifacts i DLSS er dårligt synlige selv ved slow-motion, i f.eks. den halve hastighed Digital Foundry har fremvist angående 120 fps DLSS 3 og end ikke i andre eksempler hvor nogle har lavet en 12 x slowed downed video af Cyberpunk 2077 med DLSS 3 fra hvad der nu ligger i 60 fps på YouTube af det - selv om det så naturligvis ikke er et lige så godt et analysemateriale i forhold til hvad Digital Foundry laver direkte med kortene, så ser det stadig meget lovende ud og artifacts er noget man virkelig skal spejde efter at finde. (5) Jeg kender resultaterne fra tunge-off line AI opskalere der kan tage en hel nat for temporalt opskalere bare 3½ minuts musikvideo på mit eksisterende RTX 3080. Da disse ikke har den luksus beskrevet i "2" introducerer sådanne spatiale og temporale opskalere markant større artifacts end man ser fra DLSS 3, men grundet det menneskelige syn er det stadig, hvis kurateret ordentligt, i stand til at formidle den større spatiale og temporale opløsning der samlet set giver et resultat langt bedre end hvad der har været opskaleret fra og som er i en helt andel liga end hvad der er kendt fra f.eks TV's udsmattede elendige on-the-fly frame interpolation (som DLSS 3, som koblet på game-engine 3D rum og bevægelsesdata, som forklaret ikke er identisk med) Men allerede her er tunge off-line resultater tættere på ægte HFR kilder end på TV's motion interpolation. Og DLSS 3 vil som sagt være bedre stillede med tilkoblinger til game-engine data og dermed kunne give bedre resultater end sådanne, grundet de flere basis-elementer DLSS 3 har at gøre godt med som luksus (jævnfør igen grund 2). (6) Flere fps i netop computerspil fucker ikke med mere uplastiske hjerners tilvænning til 24 fps filmmateriale som det sker for nogle uheldig mht HFR i film (som jeg personligt er stor fan af) - Dette vil ikke være tilfældet og slet ikke et issue for computerspil, tværtimod vil de flere frames udelukkende opleves som befordrende. Så der er også på det punkt igen tale om en sammenligning der ikke holder, da præmisserne er nogle andre. Jeg siger ikke at DLSS's 3's temporale opskalering bliver 100% perfekt, lige som DLSS 2's spatiale opskalering jo heller ikke er det. Jeg har f.eks. allerede selv spottet i tegn på smearing artifacts i Spiderman Remastered og Racer RTX videoerne fra Nvidia, selv om YouTube's hårde kompression i sig selv smearer og fucker en endnu større dele af videoen op. Men de er der når man ved hvad man kigger efter (det ved jeg fra off-line AI algoritmerne), men er de tilstedeværende i generende eller kompromiterende grad? Nej, det er et rigtigt godt tradeoff for de flere fps man får. Og det er endog ved 60 fps videogengivelse, hvor det kun vil blive endnu mindre synligt ved 120 og ikke mindst 300 fps. Så summa sumarum, lige som med DLSS 2's spatiale aspekter, så forventer jeg fra hvad jeg hidtil har set og ikke mindst hørt fra Digital Foundry, at DLSS 3's temporale aspekter samlet set bliver et gode og lige som med DLSS 2 kommer til at kunne bidrage med hvad der samlet set vil være en bedre oplevelse end der er alene med native rendering - Fuldstændigt lige som med DLSS 2, hvor en opskalering til 4K visuelt kan slå et 4K render. ...Som dig glæder jeg mig også til reviews og ikke mindst at få personlig erfaring med det, men fra hvad jeg allerede ved og har hørt om det, bl.a. fra Digital Foundry, som vel er nogle af de mest analystisk orienterede reviewere man kan finde, så er jeg ikke på samme måde bekymret for det, men spændt på det.

Og naturligvis bliver DLSS 3 ikke noget for kompetitive gamere. Men det er hverken FSR 2 og DLSS 2 så heller ikke. DLSS 2 påfører allerede ekstra lantency i forhold til den native renderopløsning der opskaleres fra og FSR tilfører endnu mere latency end DLSS 2. DLSS 3 kommer til at buffere 1 frame ekstra end DLSS 2 og qua obligatorisk brug af reflex til at lægge en ekstra halv frametime til latency, så vidt jeg har forstået det, så det kommer efter alt sandsynlighed til at få en latency der ligger nærmere FSR 2 end DLSS 2 og lige som med disse skal man huske at det også står i relation til den framerate der opereres med (jo højere framerates, jo mindre latency og vice verca - for både FSR og DLSS 2/3). Så, nej det bliver naturligvis IKKE for kompetitive gamere, men efter alt at dømme et stort gode for singleplayer gamere som mig - lige som DLSS 2 allerede er det.
Oprindeligt skrevet af Lort Lort skrev:

Jo din CPU holder et 4090 tilbage, det er 100% sikkert. Det virker jo helt tåbeligt at du vil smide så mange penge efter en GPU uden at opgradere selve basen for platformen, som er forældet.
Igen demonstrerer du at du slet ikke forholder dig til hvad jeg faktisk skriver, men alene holder dig kørende på autopilot i dine egne fordomme. Men som allerede forklaret:

1. Min CPU holder mig kun tilbage når og hvis jeg i Riva Tuner kan se at CPU forbruget ligger relativt højt og jeg ikke er i stand til at maxe mit grafikkort ud - Det er altså ganske objektivt funderet!

2. Jeg har allerede tydeligt beskrevet at jeg gemmer nogle spil til efter opgradering - både når det gælder titler hvor jeg er hæmmet af GPU og når jeg forventer at være hæmmet af CPU. Jeg gav endog et konkret eksempel på et spil jeg har udskudt på den konto, med Spiderman Remastered, som jeg udskyder at købe og spille til efter en ny CPU. MEN jeg synes det er tåbeligt at opgradere lige NU LIGE FØR jeg kan få fingre i den nye CPU generation der er lige på trapperne. I mellemtiden agter jeg så at spille spil hvor det IKKE er CPU'en der holder mig tilbage fra hvad der matcher min 4K@120 Hz skærm. Så det handler altså IKKE, som du i din fordom hænger fast i, at jeg ikke opgraderer basen, men om at jeg gør det strategisk ifht en ny CPU generation man kan få fingrene i om ikke så længe. I mellemtiden får min CPU så chancen for at synge sin sidste svanesang med RTX 4090, ind til de nye CPU'er bliver tilgængelige senere i år eller i starten af næste. Det kan jeg altså ikke se som tåbeligt.
Oprindeligt skrevet af Lort Lort skrev:

Når man først trækker 200-300 fps på 240-300 Hz i 1440p så kører det bare sublimt og rigtigt nok, her betyder CPU og RAM langt mere end 4K gaming ved 30-60-120 fps.
Enig, det har jo NETOP også været den pointe jeg selv har fremhævet: Det stiller HELT forskellige krav og flytter flaskehalsene i et system enormt, om det lige er det ene eller det andet. Og min situation er jo så netop IKKE 2-300 fps i 1440P men 4K@60-120 Hz VRR, hvor jeg så helst sigter efter 120 fps.
Oprindeligt skrevet af Lort Lort skrev:

Jeg kan godt acceptere 120 fps, men helst i single player spil hvor jeg typisk så også hæver detaljerne lidt, men der er mange ting jeg hader i "ultra presets" såsom dof, motion blur, lens flare og alt det som efter min mening gør grafikken dårligere, frem for bedre. Derfor tweakes alle mine spil til perfektion, hver gang og resultatet ender altid med at være bedre kvalitet end ultra, med langt højere ydelse.
Dér lader vi til at være mere ens indstillet (i modsætning til det med værdsættelsen eller manglen derpå, af RayTracing). DOF, motion blur og chromatic aberration ting jeg direkte hader - Det slår jeg altid promte fra (Lens flare er jeg mere ambivalent indstillet over for, det afhænger af spillets øvrige look om jeg har det on eller off). Men det er alt sammen sættings der så godt som ingen impact har på performance, så det ændrer for så vidt ingen ting, resten vil jeg gerne have max, det ryger kun ned hvis det har meget begrænset betydning og GPU'en overhovedet bare ikke kan følge med (eller også gemmes spillet faktisk oftere til fremtidigt kraftigere hardware)

Og som sagt, hvis du endnu heller ikke havde fået det med: Jeg spiller stort set KUN single-player spil.
Oprindeligt skrevet af Lort Lort skrev:

På stuens 123 tommer? Så gætter jeg på vi snakker projektor og ja så er vi i hver vores ende af hvad vi søger. Jeg kunne aldrig acceptere at spille på en projektor, eller bare at se film på en projektor for den sags skyld. HDR er det største der er sket for spil, film og serier i mange år og det kan projetorere ikke gøre ordenligt, faktisk langt fra + ekstremt dårligt sort niveau og kontrast. Så ville jeg nærmest hellere sidde med en stor LCD skærm, selvom jeg aldrig kommer væk fra self emitting tech som OLED, der blev skiftet for mange år siden. Den eneste LCD skærm der er tilbage i huset er på PC, da det stadig er at foretrække over OLED pga. refresh rate og ingen burn-in risk.

Nu gør du dig så IGEN i fordomme. En projektor er ikke bare en projektor. Det er ikke alle projektorer der er ens eller alle projektorer der er grå LCD projektorer. Den projektor jeg benytter i stuens hjemmebio har faktisk STØRRE farverum end mine 2 OLED skærme har det og langt større native kontrast end både LCD og QLED skærme har det - Der er den kontrastmæssigt langt tættere på at ligne OLED end LCD og QLED TV. Det er rigtigt at projektorer ikke er gode til de højeste specular highlights, men jeg spiller faktisk i HDR på projektoren der er HDR kompatibel og ser også HDR film og serier på den, hvilket den fremviser med større kontraster og større farvedybder end SDR. Og som endnu mere væsentlig pointe, så er sagen den, at HDR er MEGET mere end blot specular highlights. Det er også bedre og dybere farver, bedre gradueringer og bedre shadowdetails, som er aspekter min projektor faktisk gør hhv enten bedre eller lige så godt som mine OLED TV (grundet OLED pixels cut-off fra at gå fra 0 til tændt, der er projektoren slet og ret mere følsom og harmonisk i sit billede). OLED slår naturligvis projektoren (der for sin part slår OLED og QLED) på kontrast og i særdeleshed på specular highlights. Men jeg fortrækker faktisk alt i alt at se film og serier (også HDR film og serier) på projektoren, da det samlet er et mere harmonisk billede og det ikke mindst er en langt større oplevelse med 123 end på 65 eller 77 tommer. Men jeg forstår hvor du kommer fra, ifht OLED vil jeg bestemt heller ikke kunne holde ud at se film på f.eks. en LCD projektor. Selv min PC-monitor er OLED. LCD er bandlyst her i huset, da jeg ikke kan holde ud af se på grå LCD og heller ikke kan holde local-dimming lapperiet/rodet/kompromiset ud - Og dynamisk kontrast på LCD skærme er sku da imho MEGET mere billedforstyrrende og kompromitterende, såvel som latencyinducerende) end FSR's og DLSS 2+3's latency og artifacts nogensinde kommer til at blive det! 
Oprindeligt skrevet af Lort Lort skrev:

Det lyder til du har ædt alt deres marketing rådt, for der er utallige tråde og video'er omkring DLSS 3.0 allerede.
Hvordan skulle jeg så kunne skrive hvad jeg har skrevet på forrige side og hvad jeg har gentaget ovenfor? ...Påpeger jeg ikke netop at der er både latencies samt artifacts at finde hvis man leder efter dem, selv i de videoer der er lagt ud, samtidig med at jeg perspektiverer det til hvor meget det kommer til at betyde eller ikke betyde ved forskellige FPS (mindre ved flere og vice verca) ...At der så er mange forudintagede hysteriske kællinger på nettet ude og fiske clicks med skandale og kræfudtryk (pas på du ikke smittes og mister objektiviteten) kan jeg altså ikke lade mig farve af, med hvad jeg hører udmeldt af mere ligevægtige analytikere hos Digital Foundry og selv har forstået om teknologien og dens fordele og udfordringer.   
Oprindeligt skrevet af Lort Lort skrev:

Jeg skal se noget mere om det, eller prøve det selv, før jeg overhovedet vil anerkende det fps boost man får. For jeg har set mange dårlige DLSS implementeringer allerede og DLSS 3.0 lyder som noget værre lort for at sige det mildt.
Se DÉT er nok en god ide at se nogle objektive analyser og reviews og endnu bedre at prøve det selv, frem for at leve i fordommene om at det bare er noget værre lort. Forskellen på os to er i den forbindelse at jeg ikke er lige så bange for DLSS 3, men ser både udfordringerne MEN også potentialet og den nytte det kan udgøre - og yderligere beroliges jeg også af at analytisk anlagte Digital Foundry, der i modsætning til hæren af forudindtagede hysteriske kællinger på nettet, rent faktisk selv har haft det i hænderne i et stykke tid angiver at være positivt imponerede, uden at være det på jubelagtigt vis uden kritik - F.eks. mener de som både du og jeg at det ikke har relevans i esport - Vil du have en grundig og kritisk analyse, hvor både fordele og bagsider bliver fremhævede, så vent på deres analyser i stedet for at lade dig lede af diverse hysteriske clicbait's hungrende pundits forudindtagenheder og vent på de egentlige reviews og analyser der kommer af kortene i stedet for.
Oprindeligt skrevet af Lort Lort skrev:

Hvis du ser youtube video'er fra store youtubere, så vil du også se at 4000 serien skuffer. De fremhæver mest deres propritære teknologier uden at snakke ret meget om det faktisk ydelsesspring, som på ingen måde nærmer sig de 2-4 gange som de snakker om. Men det vil du snart opleve, når vi ser de første officielle 3. parts anmeldelser af 4090.
Det har vi OGSÅ været igennem på de forudgående sider. Og jeg kan altså kun virkelig undre mig over hvornår hvad vi må formode, alt efter spiltitel, at blive imellem nok mindst 1,3 til i bedste tilfælde over 2,1 x rasterization performance og 2-4 gange RayTracing performance i 4K pludselig kan gå hen og blive forstået som skuffende? Confused 

Jeg husker ikke tidligere GPU opgraderinger i min tid, hvor man har været i nærheden af få så store gen-on-gen forbedringer, med mine typisk 2-årige opgraderings cyklus igennem de sidste mange mange årtier. Sidst var der tale om et relativt stort spring og der var RTX 3080 1,2 (ved 1080p) til 1,5 (i 4K) x hurtigere end RTX 2080, taget som et gennemsnit af flere spiltitler. Naturligvis vil RTX 4090 heller ikke give samme spring til en 1080p skærm som til en 4K skærm. Men man skal da være mærkelig ved at blive skuffet over hvad vi hidtil har set, selv om det nok særligt bliver os med 4K skærme der har mest grund til at glæde os. Mht Nvidia's tal, så har de altid tidligere passet, der er mere tale om at titlerne kan være særligt udvalgte, men tallene verificeres efterfølgende gerne i reviews - og vi har allerede set Digital Foundry verificere nogle af dem.
Oprindeligt skrevet af Lort Lort skrev:

Jeg synes det er spændende at FSR 2.x nærmest er på niveau med DLSS 2.x uden at kræve speciel hardware.

Jeg ikke fan af Nvidias tilgang med at låse features til egne kort og endda også segmenter af egne kort.

Nærmest er synonymt med tilnærmelsesvis og omtrent Wink FSR 2 er en rigtig god nyhed for AMD ejere, og jeg er selv ganske imponeret over hvad man har været i stand til at opnå uden brug af AI algoritmer og speciel hardwareaccelleration. CUDOS til AMD for det! Men jævnfør visuelle analyser af FSR 2, DLSS 2 og XeSS, så er DLSS 2 og XeSS stadig i en egen liga over FSR 2

Jeg er heller ikke fan af låste proprietære funktioner, men jeg er fan af hardware acceleration! AMD er i øvrigt ikke bedre end Nvidia hvad den slags angår, det manifesterer sig bare på et andet område: Har du lagt mærke til at AMD sponsorerede titler der har FSR aldrig har DLSS, mens Nvidia sponsorerede titler ofte også har FSR? ...Når man sidder med DLSS kompatibilitet er det frustrerende at skulle nøjes med FSR 2 med dårligere visuel kvalitet og højere latency end DLSS 2, i de AMD sponsorerede spil Ouch 
Oprindeligt skrevet af Lort Lort skrev:

DLSS 2.x indfører faktisk ikke yderligere latency, da højere fps betyder lavere input delay. Det bliver ikke tilfældet på DLSS 3.0, da man får frames som ikke indeholder brugerens input.

Der er masser af video'er om DLSS 2.x og input lag og så længe fps er højere, er input delay lavere. Den logik, vi kender.

Bemærk at hvad jeg skrev faktisk var: "DLSS 2 påfører allerede ekstra lantency i forhold til den native renderopløsning der opskaleres fra og FSR tilfører endnu mere latency end DLSS 2. DLSS 3 kommer til at buffere 1 frame ekstra end DLSS 2 og qua obligatorisk brug af reflex til at lægge en ekstra halv frametime til latency, så vidt jeg har forstået det, så det kommer efter alt sandsynlighed til at få en latency der ligger nærmere FSR 2 end DLSS 2 og lige som med disse skal man huske at det også står i relation til den framerate der opereres med (jo højere framerates, jo mindre latency og vice verca - for både FSR og DLSS 2/3)" ...Det er naturligvis alt sammen i relation til renderframeraten - det siger sig selv. 

...Så der er ikke noget modsætningsforhold i hvad vi skriver Wink

Din snak om mid- og low range kort har jeg med ikke forholdt mig til, det er ikke min bekymring eller hovedpine, men først og fremmest Nvidia og AMD's marketingsstrategers bekymringer, som jeg ikke behøver at bruge mere tid eller opmærksomhed på. Men jeg har dog allerede tidligere sagt at Nvidia lader til at have åbnet en dør på vid gab for AMD mht at kunne vinde markedsandele i segmentet, hvis deres produktionsomkostninger kan bære en betydende billigere pris og omtrentlig eller tilsvarende performance. Der ser jeg en potentiel chance for AMD på Rasterization, men forventer ikke noget videre på RayTracing området. Men jeg lader mig da meget gerne positivt overraske, da konkurrence kun er godt for mig [dig og alle andre] som forbruger[e].


Redigeret af TBC1 - 28-September-2022 kl. 21:59
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1970
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 28-September-2022 kl. 23:33
Oprindeligt skrevet af TBC1 TBC1 skrev:

Oprindeligt skrevet af Lort Lort skrev:

Jeg skal se noget mere om det, eller prøve det selv, før jeg overhovedet vil anerkende det fps boost man får. For jeg har set mange dårlige DLSS implementeringer allerede og DLSS 3.0 lyder som noget værre lort for at sige det mildt.
Se DÉT er nok en god ide at se nogle objektive analyser og reviews og endnu bedre at prøve det selv, frem for at leve i fordommene om at det bare er noget værre lort. Forskellen på os to er i den forbindelse at jeg ikke er lige så bange for DLSS 3, men ser både udfordringerne MEN også potentialet og den nytte det kan udgøre - og yderligere beroliges jeg også af at analytisk anlagte Digital Foundry, der i modsætning til hæren af forudindtagede hysteriske kællinger på nettet, rent faktisk selv har haft det i hænderne i et stykke tid angiver at være positivt imponerede, uden at være det på jubelagtigt vis uden kritik - F.eks. mener de som både du og jeg at det ikke har relevans i esport - Vil du have en grundig og kritisk analyse, hvor både fordele og bagsider bliver fremhævede, så vent på deres analyser i stedet for at lade dig lede af diverse hysteriske clicbait's hungrende pundits forudindtagenheder og vent på de egentlige reviews og analyser der kommer af kortene i stedet for.

Efter at jeg har skrevet det ovenstående indlæg er Digital Foundrys første analyse af DLSS 3.0 netop kommet online. I modsætning til nettets mange pundits er der her ikke tale om hysterisk og tom fordomsfuld snak, men om reel objektiv og faktabaseret HANDS ON ANALYSE! Så se den, for mere grundig, objektiv og seriøs analyse af DLSS 3's ydelser og kvalitet finder du ikke andet sted:

Nvidia DLSS 3 on RTX 4090 - Exclusive First Look - 4K 120FPS and Beyond - YouTube

Jeg kan kun sige at jeg føler mig fuldstændigt valideret, ja faktisk i alt jeg tidligere har fremhævet og hvad jeg af den grund har ment man kunne have grund til at forvente med DLSS 3. Opsummeret er de vigtigste hovedpunkter disse:

- Latency bekymringerne kan aflyses! Det er ubetydelige grader af latency der tilføres over DLSS 2, ikke mindst i GPU bound titler. Det er kun noget esport orienterede behøver bekymre sig om og strege af listen. For singleplayer spil er det reelt uden betydning og opvejes til funde af hvad man vinder og mere til. DLSS 3's samlede latency er fortsat LAVERE end native rendering i den opløsning der opskaleres TIL.

- DLSS 3 har forbløffende stabil framecreation, langt bedre end selv tunge off-line videobaserede løsninger, hvor forskellen som fremhævet er at disse ikke er begunstiget med samme data fra en game engine som DLSS 3 er det. Det indeholder de artifacts jeg allerede selv har påpeget der også har været at finde i Nvidia's egne tidligere linkede promovideoer, hvis man leder aktivt efter dem. Men det konkluderes også at det, som jeg også tidligere har argumenteret, ikke er noget man vil kunne se når FPS flyder, slet ikke ved høje FPS. Som der konkluderes: "DLSS 3's framecreation typically looks like the real deal at high framerates" - Altså ikke noget med at det virker "fake" for spilleren. Og dertil skal vi ligge at vi fortsat kun taler om version 0 og algoritmen kun kan forventes at blive endnu bedre.

Summa sumarrum kan jeg på basis af den analyse kun se DLSS 3 som et gode og et fremskridt, fuldstændigt som med DLSS 2. Og det kommer så også ligefrem til at udvide paletten af spil jeg vil kunne spille, før jeg kan fat i en af de nye CPU'er fra den generation der er lige på trapperne. So what is not to like? [ud over prisen naturligvis]


Redigeret af TBC1 - 04-Oktober-2022 kl. 00:32
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Lort Se dropdown menu
Ny bruger
Ny bruger
Avatar

Oprettet: 26-September-2022
Status: Offline
Point: 8
Funktioner Funktioner   Tak (0) Tak(0)   Citér Lort Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-September-2022 kl. 08:41
Digital Foundry har længe været i Nvidia's fold. De var også først med Ampere hands-on og havde sjovt nok heller ikke noget som helst negativt at sige dengang. De roste kun produktet, ligesom nu. Alle er til salg for den rigtige pris, desværre. Fælles for begge gange er at de fik lov til at udgive deres "test" før NDA blev løftet, som alle andre 3. parts reviewers skulle følge. Ikke ligefrem troværdigt. Der er også utallige video'er om hvordan Nvidia har krav til hvordan de reviews skal foregå og folk som bryder dem, får så ikke tilsendt et kort til test næste gang.

Det lyder til du allerede har købt kortet, så jeg forstår dig, men du glemmer vist at mange nye spil i dag hverken har RTX features eller DLSS support, da det ikke er en åben standard og Nvidia skal betale udviklere for at implementere det, med svingende kvalitet. Nok også en af grundene til at kortene bliver dyrere og dyrere. Det er nok mange penge Nvidia skal kaste den vej efterhånden.

Så er din plan at kun spille de spil som har DLSS3 og Ray Tracing fremadrettet? Det er mange gode spil at afskrive og hele pointen ved PC gaming forsvinder (frit valg af spil). Ligesom du har afskrevet spil hvor din CPU går i knæ? Personligt så spiller jeg de spil jeg har lyst til og de kører altid perfekt med høj ydelse.

Hvor længe varer det mon før AMD kommer med et åbent alternativ til DLSS 3.0? De har allerede matchet DLSS 2.x med FSR 2.x - og udbredelsen af FSR har også været langt hurtigere end DLSS - forskellen er bare at det virker på stort set alle grafikkort og ikke kun Nvidia egne (og kun de nyeste RTX kort, da de vil malke folket som altid) men en Nvidia ansat har allerede sagt at DLSS 3 kan ske på 2000 og 3000 serien fremadrettet.

Nej ingen projektor er bare i nærheden af OLED når det kommer til HDR og generel billedkvalitet, eller farver. Projektor er relativt dårligt til film og serier, men langt værre til spil og de slår på ingen måde de bedste LCD/QLED TV'er. Du kommer aldrig til at overbevise mig om andet, for jeg har set 100-vis af projektors gennem tiden, inkl. nogle af de nyeste og dyreste laserprojektore. Det bliver aldrig noget for mig. En projektor køber man, når det skal være billigt og stort. Man køber ikke projektor pga. billedkvaliteten og da slet ikke til gaming da input lag og generelt delay er helt i hegnet. Du finder ikke en mere uresponsiv måde at spille på, end med en projektor.

Nvidia har ævlet om Ray Tracing siden RTX 2000 serien udkom, men faktum er at nærmest ingen gamere gider bruge det når det kommer til stykket pga. det performance hit man får, selv på de kraftigste kort og den lille forskel det også gør når man faktisk spiller spillet, fremfor at sidde og sammenligne screenshots side by side. Så nej AMD har ikke rigtigt så travlt med at levere bedre ray tracing ydelse. Deres kort skal nok sælge hvis de yder godt i rasterization og prisen er god, som de gjorde med 6000 serien, især i 1440p og under som 90% af PC gamere bruger alligevel, da folk generelt hellere vil have 144-360 fps/Hz fremfor "4K med Ray tracing"

Jeg har spillet utallige spil med ray tracing og jeg er sikker på at de spil havde været mindst lige så gode uden. Gør ikke den store forskel hverken dig eller nvidia prøver at gøre det til. Ray tracing virker mere som Nvidias måde at få folks kraftige grafikkort i knæ på, så de kan sælge dig et nyt kort hurtigere.

Det er stadig early days for ray tracing i spil og det kommer 4000 serien ikke til at ændre på. Der skal findes en fælles standard før det bliver sjovt, ellers vil det fortsætte med at være semi slatne løsninger, som skydes ind i spil der ikke er udviklet til det som udgangspunkt. Så Nvidia må til lommerne hver gang.

Nvidia har mange gode ray tracing screenshots hvor ON ser markant bedre ud end OFF, men sjovt nok er forskellen bare langt mindre når man selv sidder med det og slår det fra og til. Forskellen er så lille at de fleste ender med at slå det fra igen og nyde den markant højere fps i stedet.

Jeg kan faktisk ikke mindes ret mange ray tracing øjeblikke hvor jeg har tænkt wow. Det tætteste er nok reflections i Cyberpunk, men det var kun noget man bemærkede når man stod og legede med de grafiske indstillinger, for igen, når man sad aktivt og spillede så bemærkede jeg aldrig de reflektioner.

Metro Exodus imponerede mig ikke overhovedet, det føltes som samme spil, som før Enhanced Edition, bare med dårligere ydelse. Gameplay var lige så tamt og indlevelsen var præcis den samme.

Faktisk vil jeg mene at originalen med ReShade ser bedre ud end Enhanced Edition uden, og framerate er dobbelt så høj. Du ville sikkert kunne snyde langt de fleste ved at vise ReShade screenshots som værende RAY TRACING og stadig overbevise folk om at der var stor forskel.


Redigeret af Lort - 29-September-2022 kl. 11:10
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1970
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-September-2022 kl. 16:44
Man kan IKKE tage fra Digital Foundry at de er grundige, data-drevne, objektive og analytiske i deres tilgang - Heller ikke når det de finder ikke lige passer ens eget sold, forventninger eller fordomme. Findes der måske noget de har testet eller analyseret om Nvidia, AMD eller spillekonsollerne tidligere som ikke holder vand? Nej vel! Det er da om noget netop også DF der mere grundigt end nogle andre har gjort FSR, XeSS, DLSSs fordele, udfordringer og artifacts tydelige for folk - også dem der ellers aldrig selv ville opdage dem - og nu gør de så det samme med DLSS 3. De har også en positiv analyse af FSR 2, PS5 og XBox mv, heriblandt med forhold hvor de netop grundet deres renome som saglige og etablerede reviewere og analytikere OGSÅ havde speciel adgang til f.eks. Microsofts udvikling. Heller ikke dette gør dem på nogen måde utroværdige eller stiller dem i f.eks. MicroSofts fold.  
 
Der er simpelthen bare ikke nogen ligeværdighed at finde imellem skingre pundits der baseret på egne fordomme, og uden noget kort i hånden at teste realiteterne på, sidder og råber "løgn, latency alarm og fake mv" og så på saglig analyse med faktiske målinger af både latency og procentvise performance upticks og eksemplificeret billedanalyse af teknoligiens resultater. Jeg fortrækker fakta, og data baseret på virkelighed, hvorfor jeg lægger større vægt på Digital Foundrys analyser, som altid har vist sig solide og faglige. Det er noget helt andet end at kaste sig over videoer med pundits uden kort i hånden og mulighed for at teste, hvilket netop gør deres skingre udtrykte holdninger utroværdige i forhold til hvad vi har at gøre godt med fra HANDS ON TESTING med fakta, målinger og data baserede på virkeligheden fra Digital Foundry. 
 
Data, målinger, fakta og virkelighed betyder noget, holdninger og fordomme tæller for intet i min bog. 
 
Det er egentligt ærgerligt at se hvordan debatten har udviklet sig. Du sidder jo åbenlyst inde med mere viden, forståelse og indsigt end den gennemsnitlige debattør, så jeg var faktisk rigtigt glad for at se dig koble dig på debatten med hvad der faktisk er kompetente indlæg når det handler om faktiske forhold og ikke om holdninger og fordomme. Men jeg er siden blevet desillusioneret over at du vægter og holder SÅ ekstremt hårdt fat i dine egne fordomme at du ikke ønsker at gøre plads for andet, selv ikke når data og analyser taler for noget andet, men i stedet bare helt upåagtende og af holdning bliver ved med at tale tingene ned. På den måde kommer du i modsætning til mig og for den sags skyld Digital Foundry der er også er entusiastiske omkring teknologiske fremskridt og ny teknologi faktisk til at tale netop lige præcis den slags ned, som du jo aktivt gør det med hensyn til både de nye kort og RaytracingStern Smile ...Begge aspekter tiltaler så mig langt mere end dig, og det er vel fair nok? 
 
Skal du overbevise mig om noget, så er det ikke via holdninger og fordomme, men igennem iagttagelse af og respekt for målinger, data og fakta og gerne UDEN at forvanske hvad jeg giver udtryk for og argumentere imod en stråmand du som sådan selv opstiller. Lad mig lige rette på et par af dine insinuerende forvanskninger angående mine standpunkter: 
 
- Min plan ER naturligvis ikke kun at spille de spil som har DLSS3 og Ray Tracing fremadrettet, min plan er absolut at spille spil som har DLSS3 og Ray Tracing, men naturligvis også også at spille Raztorization only titler - 4000 serien kommer til at give mindst lige så stort et spring på Raszerisation only titler i 4K som 3000 serien gjorde over 2000 serien (og når tests efter embargo kommer i hus efter alt at dømme sikkert også lidt mere) og et markant og LANGT større tigerspring end hvad jeg selv havde tudet håbe på forud, i forhold til hvad der bliver muligt med Raytracede titler - Til min 4K@120 fps skærm har min personlige erfaring hid til været, at jeg så først og fremmest har brug for en større GPU i forhold til begge dele med de spil jeg spiller og de settings jeg fortrækker - men CPU’en skal også opgraders for at jeg kan udnytte min skærm bedst muligt i ALLE titler fremover, særligt den kommende generation af spil, som Cyberpunk 2077 og Spiderman remastered allerede har givet forvarsel om. Men mit ønske er altså at vente på den CPU generation der lander lige om lidt. Der er ikke tale om at jeg IKKE vil eller ikke ønsker at opgradere CPU. 
 
- Jeg har ikke påstået at min projektor er bedre end mit OLED til HDR, jeg har omvendt og helt faktabaseret fremhævet at mit OLED netop har større kontrast og bedre specular highlights. Hvad jeg sagde var at projektoren også drager nytte af HDR materiale på adskillige områder, ikke mindst da 10-bit HDR også bringer mere til bordet end alene specular highlights og flere NITS. Jeg påpegede så at projectorens farverum faktisk er større end mit OLED TV's og at jeg finder at dens billedkvalitet samlet set er så god (uden nogen påstande om at den slår et OLED på HDR mht til f.eks. specular highlights og kontrast) at JEG personligt fortrækker at se film og serier på den, da den bidrager med et godt kontrastrigt billede, der er meget harmonisk og ikke mindst væsentligt større end det mit OLED TV kan bidrage med. Det står så yderligere i relation til udtalelserne om at jeg ikke kan udholde til sammenligning LCD baserede panalers grå og lave native kontrast eller en dynamisk kontrasts kompromisser (heller ikke når zonestyrret). Jeg ønsker mig i øvrigt et min. 120 tommer MicroLED eller OLED TV som i så fald skulle tage over for projektoren den dag det skulle blive tingængeligt for almindeligt dødelige og ikke kun olie-sheiker. Det jeg fremhæver af faktuelle forhold er med andre ord ikke noget jeg alene holdningsmæssigt bare hiver ud af det blå. Når jeg specifikt taler om større farverum er det baseret på tekniske data og fakta, idet projektoren udtrykt i DCI-P3 farverum har farvedækning på >100% DCI-P3, mens mit OLED TV har 97% DCI-P3 dækning, forskelle der tilsvarende genfindes ifbm. farvedækningerne ind i REC 2020 farverummet hvor TV'et i reviews måles til 76% mens Projectoren måles til 81%. Så det jeg siger er med andre ord baseret på virkelighed og fakta og når jeg til differentiering taler om min egen holdning til noget, så angiver jeg også at det er hvad det er, i stedet for at gøre krav på at mine holdninger skulle trancendere virkelighed og andre aspekters data eller fakta - eller for den sags skyld andres præferencer. Det er også sådan jeg forholder mig til den viden man kan samle sig om det kommende RTX 4090 - Der kan jeg ikke bruge holdninger og fordomme til noget i forhold til målinger, data og faktuelle analyser af virkeligheden. Det eneste sted holdninger har noget som helst der er i nærheden af relevans er f.eks. i forhold til en subjektiv snak om meget vi hver især PERSONLIGT får ud af at f.eks. RayTracing - Og de forskelle skal der da naturligvis være plads til - og så indstiller vi os hver især naturligvis også efter dem når vi overvejer hardware, ikke?

Redigeret af TBC1 - 01-Oktober-2022 kl. 11:41
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1970
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 11-Oktober-2022 kl. 16:08
Så er review emargo [edit: på Nvidia RTX 4090] overstået, her er nogle af hovedpunkterne:

Ved 4K: (gennemsnit af reviwerens testede titler) - 59% hurtigere end RTX 3090 Ti - 70% hurtigere end Radeon 6950 XT - 72% hurtigere end RTX 3090 - 79% hurtigere end RTX 3080 Ti - 88% hurtigere end Radeon 6900 XT - 98% hurtigere end RTX 3080 - 104% hurtigere end Radeon 6800 XT - 130% hurtigere end Radeon 6800 - 145% hurtigere end RTX 3070 Ti - 163% hurtigere end RTX 3070 Ved 1440P er kortet så relativt hurtigt at man i nogle af titlerne bliver bottlenecked af cpu performance, selv med en high-end CPU (der er også tale om et gennemnsit af titler i nedenstående) - 44% hurtigere end Radeon 6950 XT - 45% hurtigere end RTX 3090 Ti - 56% hurtigere end Radeon 6900 XT - 56% hurtigere end RTX 3090 - 59% hurtigere end RTX 3080 Ti - 68% hurtigere end Radeon 6800 XT - 75% hurtigere end RTX 3080 - 88% hurtigere end Radeon 6800 - 108% hurtigere end RTX 3070 Ti - 123% hurtigere end RTX 3070 Ser man på RayTracede tiltler med ultrasetting, så finder Tomshardware's 6 forskellige testede Raytracing titler i gennemsnit er det - 202% hurtigere end RTX 3090 - 290% hurtigere end RX 6950 XT (i enkeltstående titler er 4090 lige frem over 350% hurtigere end 6900 XT) ...Der til kan man så i nogle titler kunne smide yderligere 30-100% (variende fra titel til titel) performance oven i hatten med brug af DLSS 2 og oven i det endnu en faktor 2x på ved aktivering af DLSS 3. Så begynder det sku for alvor at blive et vildt kort velegnet til High-end gaming, selv på en 4K skærm Nuke Hvad angår energieffektiviteten er den blevet næsten fordoblet sammenlignet med RTX 3090 / 3090 Ti, og er 50 % bedre end AMD Radeon RX 6950 XT Jeg er imponeret på begge fronter. Det er det største gen-on-gen performance optick jeg lige kan huske i den tid jeg har købt GPU'er, selv om man sikkert kan finde større hvis man går længere tid tilbage? Men jeg tænker virkeligt at der er tale om et 4K kort til 8K kort, mere end noget andet, mange af reviewerne peger på at det, selv til gamle rasterization-only titler, er så sindsygt hurtigt at det bliver svært at finde CPU og hardware det kan skallere med til 1080p og selv til fuld udnyttelse af kortet til 1440p ...Så det er mere end noget andet for alvor til 4K og op at det gør de største forskelle: https://youtu.be/gzlI9nHEIBQ
Jeg bliver helt sikkert også selv nødt til at gå ud op opgradere min CPU, selv om det er til 4K, men tænker jeg lige venter til f.eks. en Core I5 13400 eller sådan noget (skal lige se hvor den lander ifht de større 13xxx) sammen med et eller andet billigt bundkort, da 13 generationen vist er sidste gang med samme socket og mulighed for genbrug af ram? ...Så må den stå på mere GPU bound titler ind til da.

Kilder/reviews:
https://youtu.be/glz5B-4IlKE
https://www.eurogamer.net/digitalfoundry-nvidia-geforce-rtx-4090-a-new-level-in-graphics-performance
https://www.tomshardware.com/reviews/nvidia-geforce-rtx-4090-review/3
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/
https://youtu.be/aQklDR8nv8U .

Redigeret af TBC1 - 12-Oktober-2022 kl. 05:24
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
kec2 Se dropdown menu
Super bruger
Super bruger
Avatar

Oprettet: 27-Oktober-2009
Sted: Denmark
Status: Offline
Point: 306
Funktioner Funktioner   Tak (0) Tak(0)   Citér kec2 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 11-Oktober-2022 kl. 18:48
fuk der er smæk på.
Der findes 10 slags mennesker. Dem der kan det binærer talsystem og dem der ikke kan.
Til top
jake51 Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 02-Januar-2005
Sted: Randers
Status: Offline
Point: 6067
Funktioner Funktioner   Tak (0) Tak(0)   Citér jake51 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 11-Oktober-2022 kl. 19:29
Oprindeligt skrevet af TBC1 TBC1 skrev:

Så er review emargo overstået, her er nogle af hovedpunkterne: 
Måske er det en god ide at skrive, hvilken GPU der er anmeldt Wink
Vi started' ud med ingenting og har det meste tilbage
Mikael Simpson
Til top
Emilos88 Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 01-April-2008
Sted: Denmark
Status: Offline
Point: 923
Funktioner Funktioner   Tak (0) Tak(0)   Citér Emilos88 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 11-Oktober-2022 kl. 22:11
Oprindeligt skrevet af TBC1 TBC1 skrev:

Ved 1440P er kortet så relativt hurtigt at man i nogle af titlerne bliver bottlenecked af cpu performance, selv med en high-end CPU (der er også tale om et gennemnsit af titler i nedenstående) .

Hvad betyder det at man er CPU begrænset?, hjælper det med en bedre CPU?
Get HIFI or die trying c",
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1970
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 11-Oktober-2022 kl. 22:54
Oprindeligt skrevet af Emilos88 Emilos88 skrev:

Oprindeligt skrevet af TBC1 TBC1 skrev:

Ved 1440P er kortet så relativt hurtigt at man i nogle af titlerne bliver bottlenecked af cpu performance, selv med en high-end CPU (der er også tale om et gennemnsit af titler i nedenstående) .

Hvad betyder det at man er CPU begrænset?, hjælper det med en bedre CPU?

Det betyder at CPU'en er flaskehalsen der holder det samlede system tilbage, så man med en større CPU vil kunne få højere ydelse med samme GPU (altså samme grafikkort). Omvendt kan GPU'en (grafikkortet) være flaskehalsen hvis CPU'en er meget stor og grafikkortet ikke er så stort som f.eks. dette nye. Tænk på CPU'en som noget der skal fodre GPU'en dens opgaver. Er GPUen hurtigere end CPU'en kan give den opgaver, så vil man naturligvis ikke kunne udnytte GPUens fulde arbejdspotentiale.

Det er generelt sådan at...
Ved lave opløsninger (f.eks. 1080p) bliver CPUer meget hurtigere flaskehalsen
Ved høje opløsninger (f.eks. 4K eller 8K) bliver GPU'er meget hurtigere flaskehalsen.
1440p ligger sådan et sted midt imellem, hvor man både har skullet være meget opmærksom på både sin CPU og sin GPU for at balancen er til stede, et forhold der nu flyttes opefter i opløsning.

Jeg har været vant til at det i mere end 9 ud af 10 tilfælde har været mit nuværende grafikkort (RTX 3080) der har været flaskehalsen selv om jeg har en efterhånden gammel CPU, fordi jeg spiller i 4K, men med det nye kort skal jeg indstille mig på at møde mange flere spil hvor det bliver CPUen og ikke GPU'en der bliver min flaskehals. Det nye RTX 4090 er simpelthen så kraftigt at man nu begynder at se flere eksempler på spil med CPU flaskehalse selv i 4K, med selv med de absolut største GPU'er, da den nye GPU er så kraftig som den er. Det er så også alt sammen grunden til at man ser langt de største ydelsesspring i 4K, lidt mindre i 1440p og ofte meget lidt i 1080p, hvor man simpelthen må betragte dette grafikkort som totalt overkill. Det er primært os der spiller 4K og evt oven i det supersampler, der får mest ud af det nye kort - Og det så særligt i de allertungeste titler. Jeg kommer formentligt selv til at hoppe på en Core I5 13600 her senere på måneden når den udkommer. Den er billigere end både AMD Ryzen 7 7700X og Ryzen 5 7600X, jeg kan genbruge mine ram og bundkortene er MARKANT billigere end de er til den nye Ryzen 7000 serie, så jeg har efterhånden sporet mig ind på at det nok bliver den vej jeg selv går (Jævnfør CPU Hierarchy of Desktop Gaming CPUs: 2022 CPU Hierarchy - Best Gaming CPUs Comparison Chart - CPUAgent



Redigeret af TBC1 - 12-Oktober-2022 kl. 00:41
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Emilos88 Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 01-April-2008
Sted: Denmark
Status: Offline
Point: 923
Funktioner Funktioner   Tak (0) Tak(0)   Citér Emilos88 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 12-Oktober-2022 kl. 10:30
Tak for forklaringen, nu venter jeg spændt på at se Oculus Pro sammen med 4090,

Er dog lidt skuffet over Oculus Pro, selvom den byder på mange nye gode ting.
Get HIFI or die trying c",
Til top
jake51 Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 02-Januar-2005
Sted: Randers
Status: Offline
Point: 6067
Funktioner Funktioner   Tak (0) Tak(0)   Citér jake51 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 12-Oktober-2022 kl. 12:18
Åhr hvad
RTX 4090 kan da fås til under 16K... Wink


Redigeret af jake51 - 12-Oktober-2022 kl. 12:18
Vi started' ud med ingenting og har det meste tilbage
Mikael Simpson
Til top
 
 Besvar Besvar Side  <1 2627282930 33>
 
Skift forum Forum-tilladelser Se dropdown menu