avh skrev:
#jessgade Hvis nu der anvendes samme codecs til dekodningen af signalet, hvordan kan der så være forskel?
Det bitmønster som grafikkortet skal præsentere på skærmen er jo ens i udgangspunktet, skulle de to grafik-kort gøre gøre det forskelligt?
Lidt forenkelt illustreret, hvis det var tekst så skulle det ene grafik-kort skrive "A" og det andet grafik-kort "B"...
Så må det være noget med forskelligt hardware billede-behandling af inputtet? |
Hvis det nu kun var spørgsmålet om en byte fra en Blu Ray skive, som ved 1:1 pixelmapping skulle vises på en skærm, ville jeg heller ikke forvente nogen forskel overhovedet. Men der er jo tale om levende billeder, som undergår avancerede algoritmer i både soft.- og hardware inden de præsentereres på skærmen.
Herunder lidt udpluk af features fra de forskellige leverandører;
Nvidia:
-High-definition H.264, VC-1, MPEG2 and WMV9 decode acceleration
-Spatial-Temporal De-Interlacing
-Noise Reduction
-Edge Enhancement
-Bad Edit Correction
-Inverse telecine (2:2 and 3:2 pull-down correction)
-High-quality scaling
-Video color correction
ATI:
-Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats
-Motion compensation and IDCT
-Color space conversion
-Horizontal and vertical scaling
-Gamma correction
-Advanced vector adaptive per-pixel de-interlacing
-De-blocking and noise reduction filtering
-Detail enhancement
-Inverse telecine (2:2 and 3:2 pull-down correction)
-Bad edit correction
-Der må være mange muligheder for at en byte på en Blu Ray bliver til en hel anden byte inden den skal præsenteres på skærmen!

Redigeret af jessgade - 03-September-2008 kl. 17:35