|
Ny Generation af Grafikkort. |
Besvar ![]() |
Side <1 3031323334> |
Forfatter | ||
csell ![]() Guld medlem ![]() Oprettet: 16-Juni-2006 Sted: Denmark Status: Offline Point: 4716 |
![]() ![]() ![]() ![]() ![]() |
|
Hej. Nvidia's RTX 4070 kommer til april. Her er et link: Det bliver det hidtil biligste grafikkort med hardware accelerated AV1 encode fra nVidea. DaVinci Resolve kom med en Software Update allerede den 11 november 2022. Nu venter vi bare på at diverse danske streaming tjenester begynder at encode i AV1, og ellers bare bruge den samme lave bitrate de bruger i dag. Hilsen Carsten. Redigeret af csell - 08-Februar-2023 kl. 09:10 |
||
![]() |
||
jake51 ![]() Guld medlem ![]() Oprettet: 02-Januar-2005 Sted: Randers Status: Offline Point: 6247 |
![]() ![]() ![]() ![]() ![]() |
|
Jeg kan få en PC hos mmvision med RTX 4070ti til omkring 14K
Er der grund til at vente? Hvor meget billigere bliver RTX 4070?
|
||
Vi started' ud med ingenting og har det meste tilbage
Mikael Simpson |
||
![]() |
||
csell ![]() Guld medlem ![]() Oprettet: 16-Juni-2006 Sted: Denmark Status: Offline Point: 4716 |
![]() ![]() ![]() ![]() ![]() |
|
Hej.
Det tror jeg, ikke en gang nVideas marketings afdeling ved?
Du sammenligner en hel PC, med et RTX 4070Ti grafikkort, der kun koster det halve? Hilsen Carsten. |
||
![]() |
||
jake51 ![]() Guld medlem ![]() Oprettet: 02-Januar-2005 Sted: Randers Status: Offline Point: 6247 |
![]() ![]() ![]() ![]() ![]() |
|
PC'en har RTX 4070ti
Hvordan kunne det misforstås
![]() |
||
Vi started' ud med ingenting og har det meste tilbage
Mikael Simpson |
||
![]() |
||
csell ![]() Guld medlem ![]() Oprettet: 16-Juni-2006 Sted: Denmark Status: Offline Point: 4716 |
![]() ![]() ![]() ![]() ![]() |
|
Hej.
Dette Gigabyte GeForce RTX 4070 GPU link, viser 16 GB, 12 GB og 10 GB versioner. Citat: 'The NVIDIA RTX 4070 graphics card is expected to launch in April 2023 for a price close to $500 US.' Men de skriver ikke noget om, hvor meget vRam man får for de ca $500 US. Hilsen Carsten. |
||
![]() |
||
csell ![]() Guld medlem ![]() Oprettet: 16-Juni-2006 Sted: Denmark Status: Offline Point: 4716 |
![]() ![]() ![]() ![]() ![]() |
|
Hej. De første Nvidia GeForce RTX 4070 Reviews: Hilsen Carsten. |
||
![]() |
||
TBC1 ![]() Guld medlem ![]() ![]() Oprettet: 19-Februar-2009 Status: Offline Point: 2006 |
![]() ![]() ![]() ![]() ![]() |
|
4070 = det nye 3080, bare med lidt flere ram.
Det må betyde at brugte 3080'ere jo nu må falde gevaldigt i pris til glæde for mange 1080p og 1440p gamere. Jeg vil dog ikke vil anbefale nogen at købe hverken 4070 eller 3080 til 4K med den retning der aktuelt er i VRAM krav i nyere og kommende titler, helt op til 17 GB VRAM i de værste tilfælde for f.eks. at spille Resident Evil 4 i 4K med Raytracing. Og The last of US, Hogwarts Legacy heller ikke at forglemme. Alle kræver de mange VRAM for at afvikles problemfrit i 4K. Et 3080 kan også snart ligefrem snart blive at regne for lidt til 1440p. Redigeret af TBC1 - 13-April-2023 kl. 17:28 |
||
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019 Sovevær.:77" S92C,HTP-075,ATV4K |
||
![]() |
||
ASKF ![]() Super bruger ![]() ![]() Oprettet: 24-Oktober-2015 Sted: Ålborg, DK Status: Offline Point: 286 |
![]() ![]() ![]() ![]() ![]() |
|
Der er også flere tech-anmeldere som har vurderet 4050 og 4060 kortene til at være forældede allerede inden de kommer på markedet. De anbefaler generelt at holde sig fra kort med under 10 GB VRAM, hvis man ønsker at spille andet end gamle spil. Det lader til at NVIDIA kun er interesseret i high-end markedet i fremtiden, samt integrerede systemer, hvis deres entry-level er så ringe og deres mid-price er for dyre. AMD er sandsynligvis også på vej med ROCm til Windows, så deres kort også kan køre CUDA. Det vil være et slag under bæltestedet for NVIDIAs, da AMD så bliver et meget bedre alternativ for mange kunder. Især når det gælder low-mid-price produkterne. TBC1 du er alt for fokuseret på RT, det er stadig sådan at langt de fleste slår det fra, fordi det er langt vigtigere for dem med flere FPS, så længe grafikken ikke bliver decideret dårlig. Husk i PvP spil, kan forskellen i FPS betyde liv eller død og forskellen bliver tydeligere jo færre FPS der er. Så længe low-mid price kortene ikke kan levere RT uden det store dyk i FPS, vil det vedblive at være en niche feature for high-end markedet.
|
||
![]() |
||
TBC1 ![]() Guld medlem ![]() ![]() Oprettet: 19-Februar-2009 Status: Offline Point: 2006 |
![]() ![]() ![]() ![]() ![]() |
|
![]() Nu er jeg ikke helt på hvor du vil hen eller hvad du taler "imod" i hvad angåer et svar til mig i ovenstående. Jeg er med på at jeg ikke er midterlinjen for enhver gamer. Men jeg kan med stolthed sige at jeg er komplet brand ignorant, jeg er ligeglad med om det hedder Intel, AMD eller Nvidia eller noget helt 4. F.eks, venter jeg ENDELIG ankomsten af AMD's 7800X3D her i morgen, som så skal afløse min aldrende Intel 7700K og arbejde sammen med mit Nvidia RTX 4090, da CPUen ENDELIG er blevet afsendt fra Proshop i dag. Jeg går mere op i HVAD det er jeg kan få og skal bare have det der fungerer bedst for mig og mine ønsker og behov inden for rammerne af hvad jeg kan og er parat til at betale for. Og i den forbindelse ville jeg jo udelukkende kun kunne glædes over at høre om det, hvis AMD helt endegyldigt og definitivt for alvor lægger afstand til og bevæger sig langt væk fra den oprindelige indstilling de havde til at starte med for nogle år tilbage om at RayTracing er noget der ikke rigtigt er realitisk og kan lade sig gøre på consumer udstyr, men er noget man på et tidspunkt nok løser i skyen, som de oprindeligt var orienteret omkring det for nogle år tilbage, hvormed de så også overgav stafetten til Nvidia som driveren på området, som så nu, endog ret definitivt i denne uge, pegende ind i fremtiden har bevist at det vitterligt kan lade sig gøre, selv i en i forvejen krævende titel. Men ROCm handler som jeg forstår det vel ikke så meget om mulighederne for en computerspillene gamer på AMD's kort i forhold til f.eks. RayTracing eller AI og harweare accellereret opskalering som DLSS der i quality mode ligger og fra titel til titel konkurrerer med native 4K rendering om den bedste billedkvalitet, mens FSR konsekvent slås af både native rendering og DLSS. Så vidt jeg har forstået så handler ROCm mere om noget der komme udviklere der arbejder med high-performance applikationer ala dataanalyse eller machine learning - Så det handler vel mere om AMD kan komme ind og konkurrere mere med Nvidia i serverparkerne, hvor de allerede er med på CPU området. Jeg håber snarere på mere hardware accelleration af RayTracing og opskaleringsteknikker på AMD consumergrafikkort kort i fremtiden, så Nvidia ikke bliver ved med at være eneste 'game in town' hvad angår GPU for en entusiast som mig. - Jeg HÅBER at AMD kommer til at tage markedsdele fra Nvidia på low og mid-range markedet, hvor de har en helt ekstrem oplagt chance med Nvidia's high-end fokus. Vi har BRUG for konkurrencen. Det optimale ville jo være at der var en situation med konkurrence igennem HELE spektret fra top til bund. Det vil jo tjene os bedst for forbrugere, hvad enten vi så er mainstream eller entuisiaster ![]() Men, som sagt, jeg er entusiast. Denne uge har været en fest for mig med Cyperpunks helt fantastiske Path-tracing opdatering. Det er den slags der skal til for at folk får øjnene op for RayTracing og hvad det at the end of the day handler om, i stedet for halvhjertede half-meassures hvor det eneste man nærmest kan se er det performancehit der optræder, når man aktiverer en nærmest usynlige delfunktion som Raytraced shadows i et spil som Elden Ring eller Shadow of the Tombraider. Mit håb er at vi med Pathtracing bygget ind i Unreal 5 kommer til at se flere store titler med pathtracing på PC, mens konsollerne i denne generation vil nøjes med Lumen implementeringer ind til det med en PS5 eller XBox "next" forhåbentligt kan gå hen og blive mere mainstream engang, for full Raytracing/Pathtracing - det kan sku noget! ![]() https://youtu.be/vdvSMyv5ZUk https://youtu.be/1K8Br6jHkcs https://youtu.be/I-ORt8313Og Redigeret af TBC1 - 18-April-2023 kl. 03:48 |
||
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019 Sovevær.:77" S92C,HTP-075,ATV4K |
||
![]() |
||
ASKF ![]() Super bruger ![]() ![]() Oprettet: 24-Oktober-2015 Sted: Ålborg, DK Status: Offline Point: 286 |
![]() ![]() ![]() ![]() ![]() |
|
Til TBC1 og andre som har planer om at hoppe på AM5 platformen med den nye AMD Ryzen 7 7800X3D, se denne video. Han beskriver en række problemer han har haft med at få sine builds til at køre stabilt. Det lader til at der stadig er en del bugs, som skal fikses, så det er måske værd at vente nogle måneder længere. Som vi plejer at sige: Early adoptors betaler en ekstra høj pris for at blive betatestere.
![]() |
||
![]() |
||
TBC1 ![]() Guld medlem ![]() ![]() Oprettet: 19-Februar-2009 Status: Offline Point: 2006 |
![]() ![]() ![]() ![]() ![]() |
|
Planer? ...Jeg ER, med stor tilfredshed og i øvrigt helt uden at have oplevet early-adaptor issues af nogen art for længst hoppet på AM5. Men jeg har i modsætning til ham i videoen naturligvis også forinden sat mig nøje ind i platformen, så jeg f.eks. har købt nogle ordentlige low-latency Ram med Hynix M chips og EXPO - Ordentlige low-latency RAM har ekstrem betydning for performance på AM5, ikke mindst sammen med non-X3D chip, men også i nogen udstrækning til X3D chip.
Som du ganske rigtigt angiver det, så er der som reglen altid risiko for at en eller anden i flokken møder en sten eller noget grus på vejen som early adaptor. Men for pænt >99% der har opgraderet til denne platform vil ikke opleve at støde på udfordringer. Alle jeg har interageret med og hørt om har opgraderet på Hardware Online forummet har heller ikke haft nogle udfordringer med platformen ud over det vi vi bevidst har skullet forholde os til at få opdateret BIOS for en sikkerheds skyld grundet de meget få eksotiske eksempler der har været fremme på, at man kunne drive chip+bundkort i graven ved at der gives for meget strømman, som det har været fremme og man har hørt om på nettet. Man skal længere ud i nettet for at finde egentlige eksempler på dette, så generelt set mener hverken jeg eller andre der har opgraderet, at AM5 nu hvor nye BIOS der skruer ned for det er ude, at AM5 skulle være et sted eller i en status i udviklingen, hvor der skule være grund til at være nervøs og direkte råde imod det. Det er jo en helt fantastisk gaming platform og 7800X3D er i forhold til sin nærmeste og dyrere konkurrent så let at køle at man nærmest kan køle den ved at puste på den (overdrivelse fremmer forståelsen). Det eneste jeg egentligt vil anbefale folk der overvejer AM5 er, at man ser denne video for at få respekten for hvor meget ram faktisk betyder på platformen, hvilket svjv er mere end på alle andre platforme jeg har kendskab til: https://youtu.be/MOatIQuQo3s Jeg kører selv med disse timings https://youtu.be/dlYxmRcdLVw såvel som en mindre undervolting (ifht bundkortets default). Disse timings er dem der [delvist] er medtaget i ovenstående testvideo, fraset at Hardware unboxed ikke har sat den anbefalede FCLK frekvens, som giver et boost oven i det boost man allerede ser disse timings giver i Hardware Unboxed videoen. Skulle man endelig advare mod noget, så er det især de større overcloking bundkort fra Asus. Køber man dem uden at opdatere deres bios (der er nu bios ude der addresserer sagen), så starter man i en state, hvor processoren kan risikere at få så meget strøm at man kan brænde både den og bundkortet af (BIOS kan opdateres før man isætter CPU hvis man er den paranoide type) - Bl.a. Gamers Nexus har i en hel videoserie i 3 dele set på den sag hvor det med stålsat og fokuseret møje og besvær til stor glæde og fornøjelse lykkedes ham at brænde en chip af med vilje og genskabe nogle af de meget få eksotiske beretninger der tikkede ind på nettet om sagen. Nu har han også fået skaden analyseret og i den kommende 3 video har han virkeligt lagt i kakkelovnen til Asus og deres politik om at presse citronen mere end den kan holde, kan man allerede nu høre. (Jeg er faktisk selv endt med et Asus kort, dog et mere "moderat" af slagsen). Hvad angår min performance, så kan jeg bestemt heller ikke klage over den: Cyberpunk 2077 Pathtracing DLSS2+3 Auto with Ryzen 7 7800X3D + Geforce RTX 4090 benchmark - YouTube Horizon Zero Dawn 4K DLSS - Maxed out settings with 7800X3D + Geforce RTX 4090 - YouTube Red Dead Redemtion 4K DLSS Quality DX12 Maxed out settings with 7800X3D + Geforce RTX 4090 - YouTube Shadow of the Tomb Raider 4K DLSS Quality Maxed out settings with 7800X3D + Geforce RTX 4090 - YouTube MW's Burned Dead Forest Biome Unreal 5 Demo Render Qulity: Ultra, TSR: Quality (7800X3D + RTX 4090) - YouTube Cyberpunk og Horizon Zero Dawn var 2 af de spil jeg tidligere måtte vente med at spille, grundet CPU bottleneck. Man kan også se at CPU'en stadig får en ordentlig workout på % forbruget i Zero Dawn (øverst til venstre "OLED" nedtonede stats) _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ For dem der skulle have interesse i at vide det, er mit system endt op med at blive bygget med følgende komponenter: AMD Ryzen™ 7 7800X3D Gaming Processor | AMD NH-D15 SE-AM4 (noctua.at) PRIME X670E-PRO WIFI|Motherboards|ASUS Global https://www.gskill.com/product/165/393/1661410171/F5-6000J3038F16GX2-TZ5N
Next Level Gaming Storage with WD_BLACK SN850X NVMe SSD | Western Digital GeForce RTX™ 4090 GAMING OC 24G (rev. 1.0 / 1.1) Key Features | Graphics Card - GIGABYTE Global (Genbrugt) Jeg kan kun varmt anbefale de fleste af disse komponenter, fraset bundkortet som blev unødvendigt dyrt (man kan få bundkort til 1300 kr der performer fuldt ud lige så godt med samme sekundære ram timings opsat på dem), men det handlede om at jeg sigtede efter nogle specifikke BIOS funktioner om at kunne lukke helt for CCD1 på 7950X3D ifbm spil, som jeg kun havde held til at kunne verificere var tilstede i Asus X670 serie af kort på købstidspunktet (Jeg har haft bundkortet siden Februar), på et tidspunkt hvor jeg sigtede efter 7950X3D og endnu ikke havde hørt om Project Lasso (som imho er et must til den chip) hint: Project lasso gør også lidt gavn på Intel chip ved med sikkerhed at holde efficiency cores fingre fra fadet når der spilles - man kan nemlig ikke altid regne med det sker korrekt automatisk med heterogene chips som Intels senere generationer af chip der har en blanding af performance og efficiency cores og AMD's 7900+7950 X3D med en blanding af CCD's med og uden den ekstra "X3D" V-cache.I begge tilfælde er det XBox game bar der fortæller Windows hvordan det skal prioritere CPU cores, men man kan ikke altid regne det skudsikkert (med 7800X3D behøver man ikke selv gøre noget da dens CCD er homogen) Redigeret af TBC1 - 24-Maj-2023 kl. 01:01 |
||
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019 Sovevær.:77" S92C,HTP-075,ATV4K |
||
![]() |
||
csell ![]() Guld medlem ![]() Oprettet: 16-Juni-2006 Sted: Denmark Status: Offline Point: 4716 |
![]() ![]() ![]() ![]() ![]() |
|
Hej. Nvidia GeForce RTX 4060 Ti Reviews: 1080p Gaming for $399 I morgen kommer der AMD RX 7600 (XT) Reviews. Hilsen Carsten. |
||
![]() |
Besvar ![]() |
Side <1 3031323334> |
Skift forum | Forum-tilladelser ![]() Du kan ikke oprette nye emner i dette forum Du kan ikke besvare indlæg i dette forum Du kan ikke slette dine indlæg i dette forum Du kan ikke redigere dine indlæg i dette forum Du kan ikke oprette afstemninger i dette forum Du kan ikke stemme i dette forum |