Inlägg

Inlägg som Zcenicx har skrivit i forumet
Av Zcenicx
Skrivet av RaxXeZ:

En fråga till dig som verkar ha koll och som kanske kan hjälpa TS också. "Asus Geforce GTX 980 Ti Strix DirectCU III" modellen har ett egendesignat kretskort, medans alla andra har referens om jag förstått rätt. Borde det inte göra att det endast är kompatibelt med sig själv? Eller är skillnaderna inte så stora kanske?

Kretskortet gör ingen egentlig skillnad, det är absoluta logiska skillnader som spelar roll för SLI, och där är skillnaderna mellan två olika 980 Ti, oavsett vilka, ganska liten. Den är begränsad till just de absoluta frekvenserna, kurvan dem emellan, spänningen GPUn ska få som standard och temperaturstyrningen.

Skrivet av Ruzikx:

Källa på det?
Korten matchas alltid, det är i alla fall vad nVidia själva säger.

Nej, inte ens Nvidia säger det. Har aldrig gjort. Däremot kan du köra två kort med varandra oavsett klockning.

Korten kommer att ha sina egna base- och boost-frekvenser, sina egna boostkurvor, sina egna temperature targets och sina egna spänningsinställningar. Inget synkas i SLI, och har aldrig gjorts. Hade det funnits en hård synkning mellan korten hade man ju inte behövt en "sync"-knapp i Afterburner eller PrecisionX.

Det är något alla som sitter med motsvarande lösning också kan bekräfta. Vill du ha dem synkade får du manuellt klocka dem olika (i exemplet ovan tar du bort synkningen och klockar Asus-kortet 9% hårdare än EVGA-kortet, vilket ger samma absoluta slutfrekvens).

Av Zcenicx
Skrivet av DavidtheDoom:

Så det sker inte by default? Trodde drivrutinerna synkade korten.

Mja, nej, inte egentligen. Klockningen på korten styrs i första hand av kortens BIOS, och med implementationen av GPU Boost kan du inte längre ställa kortens faktiska klockfrekvenser med drivrutinerna, utan denna sker i BIOS. Samma gäller om du själv går in och överklockar korten, exempelvis i Afterburner, men även om du synkar den absoluta överklockningen av korten där så sker den fortfarande relativt på korten.

Ponera att du har ett EVGA 980 Ti SC+ och ett Asus 980 Ti Strix, och du har en "synkad" överklockning på +200 i Afterburner.

Stockfrekvenserna är 1000 MHz på Asus-kortet och 1102 MHz på EVGA-kortet. En diff på 10%.
Afterburner förskjuter kurvan med +200, så Asus-kortet klockar upp till 1200, men EVGA-kortet landar på 1302. (+8,5%)

Du spelar, och korten är kalla nog att boosta. Asuskortet boostar normalt till 1075 MHz, men kurvan är förskjuten med +200 så den landar på 1275 MHz. EVGA-kortet däremot boostar normalt till 1190, och kurvan är förskjuten lika mycket, så den boostar till 1390 MHz. EVGA-kortet ligger alltså klockat 115 MHz (9%) högre.

Här kommer ett problem, för det innebär att du antingen får microstutter (för det ena kortet är snabbare än det andra, vilket ger en konstant ojämn renderingstid) alternativt att drivrutinerna måste släta ut det genom frame metering. Det förra gäller fortfarande till stor del AMD och Crossfire, det senare Nvidia och SLI.

Det betyder att EVGA-kortet, eftersom det även i överklockat fall är 9% snabbare, kommer att strypas vid 91,7% GPU usage.

Vad som blir ännu mer problematiskt är att olika kort kan ha väldigt olika boostkurvor ställda. Ett SC+-kort exempelvis boostar hela vägen upp till 83c, medan ett Strix ofta börjar strypa sin boostnivå redan vid 76~77c. Om Strixkortet då sitter överst så kan denna absoluta skillnad mellan kortens klockning bli ännu större, och till slut kan du landa i en situation att frame metering inte längre klarar av att hantera diffen då den blir för stor, vilket leder till synbart microstutter.

Så, tl;dr: Fungerar, men beroende på lösning, inte nödvändigtvis utan strul.

Av Zcenicx

Skulle visserligen kunna vara grafikkortet, men skulle lika gärna kunna vara att ditt nätagg faktiskt inte klarar den adapteringen. En 1x6 till 1x8-pins PCIe-adapter ska inte användas eftersom en 6-pinskontakt inte är dimensionerad att hantera strömstyrkan i en 8-pinskontakt.

Korrekt adapterhantering är:
2x4-pin Molex -> 6-pin PCIe
2x6-pin PCIe -> 8-pin PCIe

Dvs en av varje av dessa; notera den andra 6-pinskontakten på 8-pinsadaptern.

http://i307.photobucket.com/albums/nn286/Greybear1n2/PCIE_Y_zps2...

...alternativt köpa ett modernare nätagg, för att adaptra ett 980 Ti känns... som att kasta pärlor åt svin.

Av Zcenicx
Skrivet av KaffeMedKotlett:

Jag hoppas och tror att du har rätt. Bytte från H80i nyligen och då jag slängde den så drog jag rätt rejält i slangarna för att se hur bra dom sitter och jag kunde inte få loss någon med muskelstyrka. Man vill ju ta hand om sin älskling : )

Perforerade backplates är normen då, eller finns det någon obskyr variant som är heltäckande?

Det finns, men ska jag vara helt ärlig bör det inte användas på ett så strömtörstigt kort som 980 Ti då du tar bort all kylning från alla kretsar som inte får kontakt med backplaten... och det är några stycken. Ens en liten och annars kall krets kan bli väldigt varm om det inte får minsta lilla luftrörelse.

Av Zcenicx
Skrivet av Baalex:

Gott.
Och om jag förstått det rätt så kommer det starkare kortet att "klocka ner"/"varva ner" för att matcha prestandan hos det svagare kortet?

Nej, och det kan dessutom bli problem om de har olika boostnivåer eftersom korten inte klockar upp som de ska. Kort sagt kan man säga att det fungerar, men att det för den sakens skull inte är rekommenderat. För optimal funktion bör båda korten vara så nära identiska det går.

Av Zcenicx

@Reverze: Alltså, ju svagare din rigg är, desto mer nytta får du av G-Sync. Självklart kommer det att flyta bättre med högre framerate, dvs mer grafikprestanda, men vad är alternativet? Att stanna kvar på 1080p alternativt att köra osynkad skärm? Det är inte ett bra alternativ och det är absolut noll framtidssäkert.

Räkna med att få sänka lite inställningar, och att få satsa på 45+ FPS, men det kommer ändå att bli mer njutbart än alternativen. Sedan när du har råd att matcha skärmen med grafikkort, eller när grafikkorten "hunnit ikapp", så kan du bara njuta. Det rena flyt en syncskärm ger... det går inte att beskriva mer än som ren nördporr, och ju mer grafikkort man har desto mer njuter man bara.

Av Zcenicx
Skrivet av Reverze:

Ok så jag behöver egentligen ett 980ti kort för att det ska flyta på bra?
Så det är ej värt att köpa den skärmen då om man ska köra på sitt 970 kort ett tag till iaf?
Är inne på att köpa en asus vg248qe istället, det kanske är bättre då?

Mja, alltså... här kommer två saker som spelar in; ren framerate och hur den faktiskt presenteras.

För att få optimalt flyt på en osynkad skärm måste du ha konstant bättre FPS än skärmen kan presentera. Det betyder inte bara 60 FPS på en 60 Hz-skärm, utan också att du konstant ska ha en lägre renderingstid än 1/60 sekunder för att inte få stuttering och lagg. Det betyder alltså att du som minimi-FPS, alltså i värsta tänkbara scenario, ska ha samma framerate som din skärms uppdateringsfrekvens.

Ett 980 Ti räcker för detta, normalt sett, i 1080p60. Det räcker inte i 1080p144. Det har inte en chans att orka göra det i 1440p144, vilket är dubbelt så mycket pixlar (och därmed ungefär dubbla belastningen) jämfört med 1080p144.

Två 980 Ti, vilket får kallas den kraftigaste "normala" grafiklösningen en normal person kan köpa och använda, klarar det inte heller. Jag har just den uppsättningen. Mina 980 Ti i SLI kan, under vissa omständigheter, sjunka ner under 60 FPS. Normalt ligger de och pendlar i området 90-144 FPS. De kan dock inte gå över 144, eftersom de begränsas till vad skärmen kan visa.

Ett ensamt 980 Ti skulle prestera ungefär 55-60% av vad min dator klarar, så säg 30-120 FPS beroende på exakt när och var i vilket spel med vilka inställningar.

Det är precis här G-Sync kommer in. Alla skärmar, synkade eller inte, flyter lika bra om du ligger på den här konstanta "guldstandarden" av framerate = scan rate. En G-Syncskärm gör alltså absolut noll nytta om du aldrig kommer ner under 144 FPS och 1/144 sekunder renderingstid, och ligger du över den siffran får du samma problem med tearing etc som med en fixed framerate-skärm.

Sjunker du däremot ner under 144 FPS, eller egentligen under 1/144 sekunder renderingstid, så ser du vad G-Sync (och Freesync med AMD-korten) är till för. Skärmen syncar sin scan rate med din framerate, så du får en skärm vars uppdateringsfrekvens konstant matchar din framerate i ett perfekt 1:1-förhållande. Om du skulle ha exakt 65.49 FPS så ligger din skärm på exakt 65.49 Hz.

Den känsla av flyt som det här perfekta 1:1-förhållandet skapar kan inte överdrivas. Det finns inget lagg, ingen tearing och ingen stuttering, och du känner knappt ens av att din framerate sjunker eftersom skärmen konstant visar en mjuk och tidskorrekt rörelse. Det är först när frameraten sjunker för lågt som man känner något, men då pratar vi kanske så lågt som 45-50 FPS... och då om man är känslig eller spelar ett spel med extremt snabba rörelser.

Vad gäller Pascal, det som kommer i juni är inte prestandakorten.
Vad det låter som just nu är att man lanserar mainstreamkorten i GP106-serien (x50, kanske x60) först.
Det skulle eventuellt men inte troligt kunna bli GP104-serien (motsvarande 970, 980).
Det kommer garanterat inte att bli GP100-korten (motsvarande Titan X och 980 Ti).

Lite historik från Maxwell:
2014-02-18 - GM107 (GTX 750 och 750 Ti) lanseras, och därmed Maxwell. Resten av 700-serien är Kepler.
2014-03-12 - GM108 (830M, 840M, 850M, 860M lanseras) 870M och 880M är Kepler GK104.
2014-09-18 - GM204 (GTX 970 och 980) lanseras och därmed första korten i 900-serien.
2015-01-22 - GM206 (GTX 960) lanseras.
2015-03-17 - GM200 (GTX Titan X) lanseras.
2015-06-01 - GM200 (GTX 980 Ti) lanseras.

Med andra ord, med tanke på hur det låter från Nvidia, kan det alltså dröja mer än ett år mellan det att Pascal lanseras "i mittensegmentet och på laptop" (vilket motsvarar Q1 2014) och det att vi ser uppföljaren till 980 Ti (Q2 2015).

Av Zcenicx
Skrivet av Salcin74:

Jag tycker att det är lite dålig info i första inlägget.
Hur mycket kostar råden samt inom vilka områden kan man förvänta sig råd från ett grafikkort? Har det någon certifiering eller är det mer som en livscoach,vilket vem som helst kan utge sig för att vara utan utbildning eller erkända certifieringar?

Mja, nej, ett bra grafikkort är mer som en god vän man kan le och njuta av tiden ihop med. Mer som en passiv lifebuff.

Av Zcenicx
Skrivet av nisseR++:

@Zajin:

Jag menar att dom kontakter som kommer ut från
pS är två st 4 pinns kontakter X 2.

Det skall väll räcka för att driva 2 st kort + Sli bryggan?

Mvh

Nils

2x4-pin kan du inte använda till grafikkort, den är till för processorströmförsörjning. Men ett Corsair 850W torde ha fyra 6+2-pinskontakter för strömförsörjning till grafikkort.

Av Zcenicx
Skrivet av hiphoppucko:

Cpu usage runt 30-50%

Ja men kan prova och installera om windows igen, kanske är det som strular? Eller ska det vara såhär?

Nej, inte total CPU usage. Vad är belastningen på den högst belastade kärnan?

100% belastning på en kärna ser Windows som 25% belastning, men det stryper dig likafullt om spelet inte kan använda mer än en kärna. Och en Phenom är... rätt gammal idag. Den i 3.8 GHz presterar kanske som en modernare i5 i... kanske 2.5?

Av Zcenicx
Skrivet av Jygge:

har sett att jag ligger bra lika med 2 x gtx980 ti det är nog cpu som bromsar för grafiken annars har nog korten matat mer för oss båda

Mjaej. Jag spelar inte i 1080p så begränsningen där existerar inte för mig.

Får ~16 500 i Fire Strike Extreme (1440p)
http://www.3dmark.com/3dm/11090282

Skrivet av Tilma:

2 stycken 980Ti måste vara brutalt

Ja... men 1440p144 kräver brutala grafikkort också.

Av Zcenicx
Skrivet av Jygge:

Sitter med 3 st MSI GTX970 i sli finkar fint här sista 3DMark test kan inte klaga på dom Score 22183 inte illa

33 146 menar du (det är graphics score som räknas)... vilket faktiskt är identiskt med mina 2x980 Ti (skiljer 18 poäng).

http://www.3dmark.com/3dm/11091078

Av Zcenicx
Skrivet av Dlin89:

@Seziuo: så det går alltså att få ut mer av kortet utan att höja volt?
Brukar det vara så pass att man märker skillnad då på dessa kort.
Mitt gtx 770 fick jag vara upp 50 MHz på core och 250 memory innan den kraschade och då hade jag valt på 1. 12 tror jag som var det enda läge att välja om man inte körde på standard. Rörde ingenting på fläktarna vet inte hur jag gör det

Du kan inte, iaf inte med original BIOS, höja volten så högt att det blir skadligt. Så det är lugnt.
Med det sagt vet jag av erfarenhet att 1440p är mer än nog att få ett 980 Ti att gå på knäna, (därför varför jag har två) så du kommer definitivt att tjäna på att överklocka det.

Av Zcenicx

@anon179202:
Min poäng är att om 2x980 Ti + överklockad CPU drar 650W, så drar 2x 970 betydligt mindre.

Av Zcenicx

@jnilssonn: 650W räcker tveklöst och utan problem. De som säger annat vet inte vad de pratar om. 800W? Jag driver två 980 Ti på 850W och de drar sällan eller aldrig över 650W faktisk belastning.

Ett 970 drar ca 150W från nätagget, klockat kan man landa uppåt 200W, och ens med två överklockade kort pratar vi om att peak load på hela din dator skulle landa runt 500W.

Av Zcenicx
Skrivet av ZOiDVOiD:

jag hadde löst det genom å kasta i nå budget kort från amd eller nvidia med rätt spec på anslutningen .. kostar inte många hundringar och brukar ha lite mer krut än intel gpu'n samt brukar gå å kyla passivt

Problemet var just "rätt spec på anslutningen", vilket begränsar möjligheterna rätt mycket gällande budgetkorten.

Av Zcenicx
Skrivet av Vangen:

Så den är till för icke Synkroniseringsskärmar?

I sådana fall, tack för svar då vet jag.

Yep, eller för synkskärmar där du kör ULMB eller fixed refresh istället för G-Sync.

Av Zcenicx
Skrivet av TheStudent:

jaså? de visste inte jag, man lär sig något nytt hela tiden här haha och vad betyder "TS" jag förstår att de är den som skapade tråden så är de tråd skapare det står för? på reddit är de OP - original poster (antar jag att det betyder i alla fall..)

OP på engelska forum, ja

Av Zcenicx
Skrivet av Ninjaflipp:

Kan du screenshotta dina afterburner-inställningar? Antar att det är med afterburner du klockar själv.

Nope, EVGA Precision X 16. Har ju trots allt EVGA-kort

http://i.imgur.com/KIdkKXB.jpg

Av Zcenicx
Skrivet av TheStudent:

jag hade kört på ett radeon 390 istället //
då hade du dock behövt köpa ett nytt nätagg så det kanske inte blir värt det ändå.. men ville bara säga att 390 är billigare för ungefär samma prestanda i spel

Presterar ungefär lika på en i7, men observera att TS har en i5, i vilket fall ett 390 presterar lite sämre (i <=DX11-spel iaf) pga hög driver overhead.