Följ Black Week på SweClockers

Nvidia tillkännager Geforce GTX 780 Ti

Permalänk
Avstängd
Skrivet av elajt_1:

Ja, men då helt utan stuttering eller tearing. Såvida inte fallet från 60 blir dramatiskt vill säga.

Med andra ord så försvann en hel del glamour över G-sync.. För de som har råd att spendera på två kort i CF så kan ju G-sync vara en bra sak däremot sitter du med en lite sämre dator så kommer det inte direkt göra någon superskillnad.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Inaktiv
Skrivet av Blackbird_CaD_:

Alltså vilket hålrum?
Hålrummet mellan 780 och Titan är mikroskopiskt.
Jag fattar inte det..
Det är fan en bedrift om man lyckas skapa ett grafikkort som hamnar mellan 780 och Titan.

lol sant
det måste logiskt vara bättre än titan annars är det konstigt

Permalänk
Avstängd
Skrivet av anon99565:

lol sant
det måste logiskt vara bättre än titan annars är det konstigt

Skummare saker har ju hänt. GTX 780 har tre klusters inaktiverade. GTX Titan har ett. Logiskt vore att ett GTX 780TI skulle ha två kluster inaktiverade vilket i teorin borde lägga kortet någonstans mellan GTX 780 och GTX Titan. Finns ett hål där även om det är hyfsat litet.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Med andra ord så försvann en hel del glamour över G-sync.. För de som har råd att spendera på två kort i CF så kan ju G-sync vara en bra sak däremot sitter du med en lite sämre dator så kommer det inte direkt göra någon superskillnad.

Jo, det är det som är hela poängen. Den som har en superdator märker det kanske inte så mycket, men den som har en något svagare GPU kommer märka av det mycket mer. Den med svagare gpu som vill ha v-sync aktiverat för att slippa tearing, får ju massiv stuttering så fort kortet går under 60fps (vilket kommer hända hela tiden med höga inställningar i spel). Har man då G-sync så får du en smooth upplevelse utan stuttering och utan tearing.
Den blir naturligtvis inte lika smooth som den med feta kort rent fps mässigt, men utan G-synk hade du som jag precis nämde fått massiv stuttering med v-sync på.

Den enda anledningen till att inte köra V-sync på, är ju för att det kan ge en stor fördel i fps spel, när du inte vill vara begränsad av att mata skärmen med 60fps. Sen borde ju fördelen, (iallafall rent teoretiskt) bara synas när man faktiskt har en skärm som kan uppdatera snabbare än 60hz (alltså 120 alt 144hz). Men många påstår ju att man märker skillnad (fördel) ändå.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd
Skrivet av elajt_1:

Jo, det är det som är hela poängen. Den som har en superdator märker det kanske inte så mycket, men den som har en något svagare GPU kommer märka av det mycket mer. Den med svagare gpu som vill ha v-synk aktiverat för att slippa tearing får ju massiv stuttering så fort kortet går under 60fps (vilket kommer hända hela tiden med höga inställningar i spel). Har man då G-sync så får du en smooth upplevelse utan stuttering och utan tearing.
Den blir naturligtvis inte lika smooth som den med feta kort rent fps mässigt, men utan G-synk hade du som jag precis nämde fått massiv stuttering med v-sync på.

Kör inte själv med vsync eftersom tearing inte direkt stör mig.

Sedan verkar G-sync inte vara värt att köpa en skärm över.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Du lever i en fantasivärld. Nvidia sätter inte enorma priser bara för att de vill utan det kostar väldigt mycket att få fram dessa kretsar och eftersom 780s kretsar bara är strypta Titan-kretsar så kostar de snarlikt. Men du verkar ju tro att Nvidia kan sätta vilket pris de vill bara för att de är Nvidia?

Vilken insikt har du i vad korten kostar att tillverka? Var kommer dina siffror från?

Tidigare i år talade nämligen Nvidia själva om vinstmarginaler om 54%.. Oavsett om de skulle sälja Kepler-flaggskeppen med förlust för att konkurrera med R9290X så skulle det inte påverka deras minst om nära på 1 miljard dollar nämnvärt.
http://www.bit-tech.net/news/hardware/2013/05/10/nvidia-profi...

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Medlem
Skrivet av Tumnus:

Det är exakt det jag undrande. Vad händer om man inte har en GPU stark nog att ens få 60 i FPS säg i BF4.. Betyder det att uppdateringsfrekvensen sänks?

Ja, utan G-sync och istället med V-sync påslaget betyder det att om din GPU renderar säg 40 FPS istället för 60 på en 60hz skärm kommer du få input lag, vilket du får ut i millisekunder genom att dela 1000(ms) på skärmens uppdateringsfrekvens (60hz i det här fallet, då den klarar av att uppdatera 60 gånger per sekund).

Med G-sync påslaget kommer skärmen att sänka uppdateringsfrekvensen till 40 utan något input lag för att skärmen inte uppdaterar i onödan, d.v.s. när det inte finns en ny bildruta att visa kommer inte skärmen att uppdatera bilden först den får en ny bildruta att uppdatera med från GPUn.

Alltså kommer varje bildruta som faller ur synk med skärmens uppdateringsfrekvens resultera i input lag, då skärmen inte har en ny bildruta att visa först nästa uppdatering. Med G-sync löses detta.

Skrivet av elajt_1:

Jo, det är det som är hela poängen. Den som har en superdator märker det kanske inte så mycket, men den som har en något svagare GPU kommer märka av det mycket mer. Den med svagare gpu som vill ha v-sync aktiverat för att slippa tearing, får ju massiv stuttering så fort kortet går under 60fps (vilket kommer hända hela tiden med höga inställningar i spel). Har man då G-sync så får du en smooth upplevelse utan stuttering och utan tearing.
Den blir naturligtvis inte lika smooth som den med feta kort rent fps mässigt, men utan G-synk hade du som jag precis nämde fått massiv stuttering med v-sync på.

Precis, det blir mer som en "film-lik" upplevelse (då filmer oftast rullar på 24-30ish/48 fps) istället för att det ska vara input lag och ha sig med stuttering.

Permalänk
Avstängd
Skrivet av RaZman:

Vilken insikt har du i vad korten kostar att tillverka? Var kommer dina siffror från?

Tidigare i år talade nämligen Nvidia själva om vinstmarginaler om 54%.. Oavsett om de skulle sälja Kepler-flaggskeppen med förlust för att konkurrera med R9290X så skulle det inte påverka deras minst om nära på 1 miljard dollar nämnvärt.
http://www.bit-tech.net/news/hardware/2013/05/10/nvidia-profi...

Ren och skär logik. Sedan tror du verkligen att ett företag medvetet skulle gå back? Speciellt Nvidia? Snälla.. De är ett företag som är ute för att tjäna pengar precis som AMD. Det finns en orsak varför GTX Titan legat på nästan samma pris sedan lansering. Det kostar att ta fram dessa eftersom det är en gigantisk krets. Att Nvidia går plus har ABSOLUT ingenting med Nvidias ev. prispolicy att göra. Som sagt. Presterar GTX 780TI som ett GTX Titan eller tom. bättre så kommer Nvidia sätta samma pris som GTX Titan MINST. Detta kan jag lova dig. Nvidia har aldrig varit kända för att vara resonliga med sitt pris.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Kör inte själv med vsync eftersom tearing inte direkt stör mig.

Sedan verkar G-sync inte vara värt att köpa en skärm över.

Vissa typer av skärmar kommer man kunna köpa ett monteringskit till. Kan hända att det bara är Asus i dagsläget jag vet inte säkert. Hur som helst så hjälper det inte mig som spelar på en TV

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

haha detta blir för skoj. vem vet amd kanske kommer med GG-sync som samarbetar med Dell, Eizo, LG, Samsung. så får du köpa nya monitorer så fort du byter grafikkort, om du ska va med i racet amd/nvidia och vilket kort som för tillfälet är snabbast

Visa signatur

BlackJava - Svart bälte i kundkorg ;) :P

Permalänk
Medlem
Skrivet av Thyrix:

Ja, utan G-sync och istället med V-sync påslaget betyder det att om din GPU renderar säg 40 FPS istället för 60 på en 60hz skärm kommer du få input lag, vilket du får ut i millisekunder genom att dela 1000(ms) på skärmens uppdateringsfrekvens (60hz i det här fallet, då den klarar av att uppdatera 60 gånger per sekund).

Med G-sync påslaget kommer skärmen att sänka uppdateringsfrekvensen till 40 utan något input lag för att skärmen inte uppdaterar i onödan, d.v.s. när det inte finns en ny bildruta att visa kommer inte skärmen att uppdatera bilden först den får en ny bildruta att uppdatera med från GPUn.

Alltså kommer varje bildruta som faller ur synk med skärmens uppdateringsfrekvens resultera i input lag, då skärmen inte har en ny bildruta att visa först nästa uppdatering. Med G-sync löses detta.

Precis, det blir mer som en "film-lik" upplevelse (då filmer oftast rullar på 24-30ish/48 fps) istället för att det ska vara input lag och ha sig med stuttering.

Min skärm klarar redan 30hz och då kan jag få 30fps och då är ju Gsync helt onödigt för mig och alla andra.
Vill jag ha mer än 30fps så köper jag dator delar som klarar det utan att droppa i FPS.

Permalänk

G-sync kommer säkerligen bara fungera med Nvidia kort...

Visa signatur

8700K@ 5Ghz, Noctua NH-D15, MSI RTX 2080 Ti VENTUS OC, Asus ROG STRIX Z370-F GAMING, Corsair Vengeance LPX Black 32GB 3000MHZ, Corsair RM850W, AOC C32G1 144Hz

Permalänk
Medlem

Till sist måste jag ändå säga att det är kul att Nvida också släpper nåt nytt nu. Jag var helt klart på väg att köpa R9 290 men nu är jag inte lika säker längre. De är smarta de rackarna

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd
Skrivet av DunderHoken:

G-sync kommer säkerligen bara fungera med Nvidia kort...

Kan så bli. Däremot har inte Nvidia sagt om de tänker licensiera ut det till andra tillverkare eller låsa in det som de gjorde med PhysX.

Skrivet av elajt_1:

Till sist måste jag ändå säga att det är kul att Nvida också släpper nåt nytt nu. Jag var helt klart på väg att köpa R9 290 men nu är jag inte lika säker längre. De är smarta de rackarna

290 och GTX 780TI kommer inte hamna i samma prisklass. Däremot om du menar mellan 290X och GTX 780TI så kan det ha gjort det lite mer knivigt när det kommer till val i den prisklassen. Allt handlar till slut om pris och eftersom varken AMD eller Nvidia har gått ut med priset på sina kommande kort (Lägligt? Kan det vara så att AMD fått nys om Nvidias lansering och väntar på att priserna ska komma ut?) så är det bara att vänta och se.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av AndersBlomdahl:

haha detta blir för skoj. vem vet amd kanske kommer med GG-sync som samarbetar med Dell, Eizo, LG, Samsung. så får du köpa nya monitorer så fort du byter grafikkort, om du ska va med i racet amd/nvidia och vilket kort som för tillfälet är snabbast

Faktum är att jag tror detta är en alldeles för stor grej för att Nvidia skall kunna hålla det för sig själva. De kanske tar nån form av patent på lösningen, men den kommer garanterat bli tillgänglig för andra med tiden.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Tumnus:

Jaså? Var då? Presterar det bättre än GTX Titan så kommer det också kosta mer. Dessutom skulle man använt två GTX Titan GPU på ett kort så hade priset varit astronomiskt. Finns en orsak varför priset är som det är. GTX Titan (och GTX 780, 780TI) är en dyr krets att tillverka.

Anledningen till priset på titan är också för att AMD inte haft något svar förrän nu.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Skrivet av Tumnus:

Kan så bli. Däremot har inte Nvidia sagt om de tänker licensiera ut det till andra tillverkare eller låsa in det som de gjorde med PhysX.

Vi alla vet att Nvidia inte vill vara kompis och kjamas med AMD.

Visa signatur

8700K@ 5Ghz, Noctua NH-D15, MSI RTX 2080 Ti VENTUS OC, Asus ROG STRIX Z370-F GAMING, Corsair Vengeance LPX Black 32GB 3000MHZ, Corsair RM850W, AOC C32G1 144Hz

Permalänk
Medlem
Skrivet av Tumnus:

Ren och skär logik. Sedan tror du verkligen att ett företag medvetet skulle gå back? Speciellt Nvidia? Snälla.. De är ett företag som är ute för att tjäna pengar precis som AMD. Det finns en orsak varför GTX Titan legat på nästan samma pris sedan lansering. Det kostar att ta fram dessa eftersom det är en gigantisk krets. Att Nvidia går plus har ABSOLUT ingenting med Nvidias ev. prispolicy att göra. Som sagt. Presterar GTX 780TI som ett GTX Titan eller tom. bättre så kommer Nvidia sätta samma pris som GTX Titan MINST. Detta kan jag lova dig. Nvidia har aldrig varit kända för att vara resonliga med sitt pris.

Med andra ord antaganden om sådant varken du eller jag har någon information om. Vad som är klart är att Nvidias marginaler tillåter dem att sänka priserna utan att gå med förlust, precis som de gjort med lågbudgetkorten i desktop-marknaden. Titans orörda prisbild skulle mer troligt bero på att det stått ensamt på toppen sedan det släpptes. Skulle R9290 öka konkurrensen så är Nvidia bevisligen inte rädda för att svara..

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Avstängd
Skrivet av Tobbbe__:

Anledningen till priset på titan är också för att AMD inte haft något svar förrän nu.

Kan så vara men jag tvivlar.

Stor krets = stor utvecklingskostnad = högt pris.

Skrivet av RaZman:

Med andra ord antaganden om sådant varken du eller jag har någon information om. Vad som är klart är att Nvidias marginaler tillåter dem att sänka priserna utan att gå med förlust, precis som de gjort med lågbudgetkorten i desktop-marknaden. Titans orörda prisbild skulle mer troligt bero på att det stått ensamt på toppen sedan det släpptes. Skulle R9290 öka konkurrensen så är Nvidia bevisligen inte rädda för att svara..

Självfallet antaganden. Om du knapprar in i kommentarfältet och förväntar dig något annat så slösar du bara tid. Sedan så spekulerar du lika mycket som jag. En sak är dock säker. GTX Titan kostar att göra och kretsen är inte heller direkt supereffektiv.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Gedo:

Min skärm klarar redan 30hz och då kan jag få 30fps och då är ju Gsync helt onödigt för mig och alla andra.
Vill jag ha mer än 30fps så köper jag dator delar som klarar det utan att droppa i FPS.

Din skärm klarar 30hz, det har ingen som helst betydelse. När du ställer in V-synk på ett spel så ställer sig v-sync till skärmens maxfrevens nämligen 60 (om det nu är max för den skärmen). Du blir aldrig av med stuttering problemet.
Väljer du att inte slå på V-synk så får du istället tearing.

Men du kanske bara trollade lite?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Tumnus:

290 och GTX 780TI kommer inte hamna i samma prisklass. Däremot om du menar mellan 290X och GTX 780TI så kan det ha gjort det lite mer knivigt när det kommer till val i den prisklassen. Allt handlar till slut om pris och eftersom varken AMD eller Nvidia har gått ut med priset på sina kommande kort (Lägligt? Kan det vara så att AMD fått nys om Nvidias lansering och väntar på att priserna ska komma ut?) så är det bara att vänta och se.

Ja det är 290x jag tänkte på. Blir spännande att se vad som händer. Man är ju tyvärr något otålig.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd

Haha, älskar detta!! Tack AMD för att ni pressar Nvidia Kommer hur som helst ändå att skaffa r9 280X.

Permalänk
Medlem
Skrivet av elajt_1:

Din skärm klarar 30hz, det har ingen som helst betydelse. När du ställer in V-synk på ett spel så ställer sig v-sync till skärmens maxfrevens nämligen 60 (om det nu är max för den skärmen). Du blir aldrig av med stuttering problemet.
Väljer du att inte slå på V-synk så får du istället tearing.

Men du kanske bara trollade lite?

Du har fel, ställer jag in min skärm på 30hz och då stryper min fps till 30 med vsync så blir det inte 60 eller 120hz det blir just 30hz.
Trollar du eller?

Permalänk
Medlem
Skrivet av elajt_1:

Faktum är att jag tror detta är en alldeles för stor grej för att Nvidia skall kunna hålla det för sig själva. De kanske tar nån form av patent på lösningen, men den kommer garanterat bli tillgänglig för andra med tiden.

haha, ja kommer bli sinnesrubbat annars ser framför mig under säljes här på forumet var 3e månad : " 3st TitanXL med 3st Benq200Hz 30" G-sync " och motsvarande "AMD/Eizo" när TitanXXL släpps

Visa signatur

BlackJava - Svart bälte i kundkorg ;) :P

Permalänk
Medlem

Ärligt talat, jag förstår inte all denna fanboy-ismen. Jag har alltid köpt det kortet som har levererat bra pris-prestanda förhållande med de funktioner som jag anser viktiga för mig, sedan om kortet kommer från det röda laget eller det gröna laget, eller från 3dfx för den delen när det begav sig, var helt irrelevant. Har haft, i ingen särskilt ordning, kort från S3 Graphics, Diamond MM, Intel, Matrox, 3dfx, ATI, nVidia, AMD, valda och inköpta enligt kriterierna ovan.

Är jag den enda som gör vågen invärtes nu när gfx kriget har börjat hetta till igen på allvar, utan att behöva känna att jag måste blint försvara eller sabla ner en tillverkare? Men med det sagt måste jag ändå säga att jag vet inte om jag är helt nöjd med hur nVidia försöker bygga "proprioritära" (svengelska ftvinn... ) murar runt sig och därigenom knyta till sig OEM tillverkare och utgivare. Jag har alltid haft övertygelsen att öppna standarder är vägen framåt.

Det och lite annat luktar lite unket, men att därifrån gå till att totalvägra nVidia vågar jag inte riktigt göra, jag är alltför mycket ett pris-prestanda luder för att begränsa mig, nu mer än någonsin eftersom det är tunnsått med gfxtillverkare som det är.

Visa signatur

Min dator
Storrökande, astmatisk hamster i ett rostigt hamsterhjul.

Permalänk
Medlem

http://overlordforum.com/topic/603-nvidia-g-sync/

Ännu ett perspektiv på G-Sync av en sett det live.

Citat:

Posted 18 October 2013 - 07:48 AM

A while ago I was surprised by an email from Nvidia wanting me to come down and test drive their revolutionary new tech, then tentatively entitled VRR, now known as G-Sync. It was pretty cool wandering the halls and seeing into the secret tech facilities at Nvidia and it was even cooler still discussing creating an IPS 1440 120Hz G-Sync enabled display for the hardcore gaming community.

What is G-Sync? Simply put it changes how the GPU and monitor talk to each other essentially revolutionizing the display experience and ultimately, and finally, updating Vsync.

As of today gamers have to make a choice in every game - enable Vsync to enjoy a tear-free gaming experience or disabling Vsync thereby creating visual anomalies, but increase frame rates.

Without the use of all the charts and graphs, essentially G-Sync allows a properly equipped display to provide a variable refresh rate as the data is fed from the GPU to the display.

Overall this means your game at 55FPS will run at 55Hz - automatically. 113FPS? 113Hz. This means zero tearing, no hassle with enabling/disabling Vsync.

Having seen it firsthand, and playing Crysis 3 with it on a display and off one, it is truly something you must experience to understand how important a graphic leap this is. Both computers I toyed with were identical, both running at around 40FPS, and both having the same input lag. The G-Sync enabled system seemed to be running at least 10-20FPS higher than the non-G-Sync system. It was just butter smooth.

See this link for Nvidia's official press release and to read a much better description from my tour guide (thanks Tom!) Tom Petersen. NVIDIA G-SYNC PRESS RELEASE

This is a monster step forward for all gamers and I cannot wait for the first Tempest G-Sync, 120Hz 1440 IPS panel on the planet!

Permalänk
Medlem
Skrivet av Alucius:

http://overlordforum.com/topic/603-nvidia-g-sync/

Ännu ett perspektiv på G-Sync av en sett det live.

Så det känns som att man tjänar 10-20fps, då tar jag häldre Mantle haha och hoppas på 2-9gånger mer fps

Permalänk
Medlem
Skrivet av Gedo:

Så det känns som att man tjänar 10-20fps, då tar jag häldre Mantle haha och hoppas på 2-9gånger mer fps

"Mantle ska bland annat leverera nio gånger fler ritanrop per sekund än DirectX och samtidigt minska overhead på CPU" står ingenting om 9 gånger mer fps.. Tror du själv på det eller? haha.. I verkligheten snackar vi nog snarare 10-15 fps extra i bästa fall.

Själv tar jag ju G-sync före 10 fps extra i Battlefield 4. G-Sync är en så mycket större nyhet för spelvärlden att det är löjligt.

Visa signatur

|Asus Rog Strix Scar 16|i9 13980HX|32GB DDR5|1TB| RTX 4080|

Permalänk
Medlem
Skrivet av Gedo:

Du har fel, ställer jag in min skärm på 30hz och då stryper min fps till 30 med vsync så blir det inte 60 eller 120hz det blir just 30hz.
Trollar du eller?

Okej, det är inte vanligt att det går att göra på LCD'er. Hur som helst så missar du helt poängen. Det handlar inte om att man vill ha 30fps utan snarare att inte känna av att det möjligtvis går ner till 30 i vissa lägen. Man vill ju alltid ligga så högt som möjligt och att skärmen följer det, (för att inte tearing skall uppstå). Att ha en skärmen inställed på 30 löser inte på något sätt det här problemet. Ingen hade velat väl velat begränsa sin fps till 30 om det finns möjlighet att nästan nå det dubbla.

Anledningen till att jag fråga om du trollar är för att idén med att ställa den till 30hz är ju helt meningslös.

"With G-SYNC, you can finally have your cake and eat it too -- make every bit of the GPU power at your disposal contribute to a significantly better visual experience without the drawbacks of tear and stutter."
-- John Carmack, co-founder, iD Software

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av palusa:

"Mantle ska bland annat leverera nio gånger fler ritanrop per sekund än DirectX och samtidigt minska overhead på CPU" står ingenting om 9 gånger mer fps.. Tror du själv på det eller? haha.. I verkligheten snackar vi nog snarare 10-15 fps extra i bästa fall.

Själv tar jag ju G-sync före 10 fps extra i Battlefield 4. G-Sync är en så mycket större nyhet för spelvärlden att det är löjligt.

Ja heller G-synk än +10fps, alla dagar i veckan. De 10 fps'n kommer knappt märkas men G-synk däremot.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.