Blev intresserad av adaptive V-Sync. Och Sweclockers förklaring kring vanlig vsync:
"Nackdelen med denna lösning är att om bildfrekvensen understiger skärmens uppdateringsfrekvens så måste grafikkortet gå ned till hälften så många bildrutor per sekund. Ett grafikkort som vid en tung scen kan producera exempelvis 58 FPS, bara en gnutta mindre än optimala 60 FPS, tvingas stanna vid 30 FPS. En så låg bildfrekvens upplevs ofta som ryckig ("stuttering")"
Stämmer verkligen ovanstående? Att 58FPS blir 29FPS? Detta är i så fall verkligen inte någonting som jag märkt av. Om man kör tex FRAPS så och FPS:en sjunker under 60 så halveras ju inte det direkt ner till hälften?
En annan sak är att även om man använder FPS limiter, i tex BF3 via commando. Så får man ändå Tearing? Så om man får tearing även när man inte överstiger skärmens uppdateringsfrekvens, lär man ju få massvis med tearing med Adaptive Vsync på också? Dvs att när bildfrekvensen sjunker till t.ex. 55FPS så stängs v.sync av, och man får massa tearing?
Jag blir tokig på att ha tearing i alla jäkla spel och att det inte finns någon smart lösning på detta. Kör alltid med v.sync, vilket jag tycker är skönast, men som sagt i vissa spel så kan det bli lite hackigt.
Nej, det stämmer verkligen inte med vanlig V-sync.
Men dom kanske bara menade när man använder Nvidias Adaptive Vertical Sync?
Annars så får Andreas Dimestam, Emil Björklund och Jonas Thörnqvist sluta röka svamp.