Geforce GTX 680 "Kepler" samt SLI

Permalänk
Skrivet av Da´Russian Stallion:

Blev intresserad av adaptive V-Sync. Och Sweclockers förklaring kring vanlig vsync:

"Nackdelen med denna lösning är att om bildfrekvensen understiger skärmens uppdateringsfrekvens så måste grafikkortet gå ned till hälften så många bildrutor per sekund. Ett grafikkort som vid en tung scen kan producera exempelvis 58 FPS, bara en gnutta mindre än optimala 60 FPS, tvingas stanna vid 30 FPS. En så låg bildfrekvens upplevs ofta som ryckig ("stuttering")"

Stämmer verkligen ovanstående? Att 58FPS blir 29FPS? Detta är i så fall verkligen inte någonting som jag märkt av. Om man kör tex FRAPS så och FPS:en sjunker under 60 så halveras ju inte det direkt ner till hälften?

En annan sak är att även om man använder FPS limiter, i tex BF3 via commando. Så får man ändå Tearing? Så om man får tearing även när man inte överstiger skärmens uppdateringsfrekvens, lär man ju få massvis med tearing med Adaptive Vsync på också? Dvs att när bildfrekvensen sjunker till t.ex. 55FPS så stängs v.sync av, och man får massa tearing?

Jag blir tokig på att ha tearing i alla jäkla spel och att det inte finns någon smart lösning på detta. Kör alltid med v.sync, vilket jag tycker är skönast, men som sagt i vissa spel så kan det bli lite hackigt.

Nej, det stämmer verkligen inte med vanlig V-sync.
Men dom kanske bara menade när man använder Nvidias Adaptive Vertical Sync?
Annars så får Andreas Dimestam, Emil Björklund och Jonas Thörnqvist sluta röka svamp.

Permalänk
Medlem
Skrivet av Mikael07:

Nvidia kastade ju ut en del av compute funktionaliteten med GK104. Jag antar motivationen var för att få mindre strömförbrukning, få ut kortet tidigare, samt att pressa priset för att klämma till AMD. Helt rimligt beslut då det är få som använder gamingkort för att köra CUDA.
Min gissning är dock att compute grejerna kommer tillbaka till GK110.

Håller med.. De har gjort ett "5870".

edit: Det roliga som jag ser är att gtx480 såg av många fanboys som ett bra kort p.g.a just gpgpu. På gtx680 har det ingen betydelse?
Jag själv tycker inte det hade någon betydelse varken då eller nu.

Smart (för konsument) vore om framtiden blir så att du kan köpa ett kort med saftig grafik samt gpgpu prestanda (för de som behöver det o då menar jag inte ett 25000:- kort).
Sedan finns lillebror med endast spelprestanda med en lägre prislapp o mindre strömförbrukning. (typ 680)

Om det är kostnadseffektivt för nvidia/amd med fler gpuer i sortimentet ska jag låta vara osagt.

Att de kommer ösa på mer gpgpu prestanda i kommande gpuer får vi hoppas.. Annars tar jag det som att nvidia har ljugit oss rakt upp i ansiktet när de talat sig varma om gpgpu, det är framtiden o.s.v.

Permalänk
Medlem
Skrivet av hackeron:

Citat:
Ursprungligen inskrivet av FlummbulleN Visa inlägg
Så prisklasser betyder ingenting för dig? Ett tips är att kolla GPGPU också, där 7970 i vissa fall är sex gånger snabbare.
Har du nån länk till denna källa Vilket test menar du?

Har du nån länk till denna källa Vilket test menar du?

Det där är inte speciellt märkvärdigt, DP-performance som är bland det viktigaste för GPGPU är cappat till 1/16 av kapaciteten på GTX680, med flit av Nvidia. Det är för att ingen skall få för sig att använda ett konsumentkort för proffstillämpningar. Det var samma på GTX560Ti. På GTX580 var det cappat till 1/12.

AMD har inte cappat HD7970 eftersom man vill IN på proffsmarknaden som ÄGS av Nvidia idag, men nu spelar det mindre roll att HD7970 har brutal DP-kapacitet till budgetpris eftersom alla tunga tillämpningar är skrivna för Nvidia. AMD saknar helt enkelt mjukvaran. Och Tesla-korten är förstås inte cappade alls.

Det AMD hoppas på är att open source och oberoende utvecklare skall ta till sig HD7970 och skriva den mjukvara som fattas, eftersom HD7970 är fruktansvärt mycket billigare än Tesla så har fler sådana utvecklare råd att leka med AMD-korten.

För spel är det bara ett spel som utnyttjar den funktionen idag och det är CIV5 och där är inte HD7970 9ggr snabbare, bara snabbare.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Avstängd
Skrivet av furuliden:

Nej, det stämmer verkligen inte med vanlig V-sync.
Men dom kanske bara menade när man använder Nvidias Adaptive Vertical Sync?
Annars så får Andreas Dimestam, Emil Björklund och Jonas Thörnqvist sluta röka svamp.

Det stämmer jo.

Om du går under 59fps med Vsync så kommer du egentligen köra i 28.

Har något med responsen att göra.

Citat:

vSync locks to a screen's refresh (so there are never any half-buffered images flushed to the screen).
Screens refresh at 60Hz (at least now they do, in the old days, you could get 120Hz CRTs, et cetera).
1000/60 ~= 16.6666ms / image

In the case of the GPU not being able to keep up with the screen's refresh, it will instead not send anything new, and wait until the screen's *next* refresh.
1000/30 ~= 33.3333ms / image

In this waiting, you have already dropped to the update-time of 30fps (because you're always dealing with full images, locked to full refreshes, and as such, your update speed is always going to be 1/1, 1/2, 1/3, 1/4, 1/5, et cetera).

The reason you don't actually see this in games is twofold:

1) it's not a guarantee that you're going to stay stable at a 1 image / 2 cycle update ratio (30fps).
More-likely, unless your computer sucks, it's going to be 1/1 updates interspersed with 1/2 updates.
This makes it a sporadic 30fps, rather than a stable 30fps.

2) if you're relying on fps counters, they amalgamate and average your framerates.
ie: if you have two 1/1 refreshes and one 1/2 refresh, that's a framerate of 50fps (49.98) as averaged over those three frames.
As any statistician will tell you, the earlier you start averaging your numbers, and the more often you average them together, the less accurate your finished result is going to be, and while 49.98fps technically IS the correct average of those three images (over 4 update periods), the truth is that they were refreshing either within a 60fps timeframe (16.666ms) or within a 30fps timeframe (33.333ms), and we just don't see that because of the natural smoothing caused by averages.

What's worse is that if you can't maintain a steady 60fps, this hopping causes perceived lag, while turning (first thing you'll notice).
If player updates ARE tied to vSync (horrible idea), then controls will feel jerky and unresponsive.
If player updates AREN'T tied to vSync, then controls can start feeling floaty and unresponsive (when you try to turn in another direction, really fast, but the screen still hasn't drawn a frame of your movement from three updates ago)

Dold text
Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Medlem
Skrivet av Tunezz:

Så kan man ha 4 Stycken GTX 680? Eller är det som gtx 460 att man bara kan ha två?

Permalänk
Medlem
Skrivet av Ahlen:

Åh vad trött jag blir när jag läser kommentarer som denna.. Det finns ingen riktig standard som säger att MB = Megabyte och Mb = Megabit... Det har blivit så att man skriver det som det på forum. Så det är inget fel med att skriva 2gb på i detta läget och om man vill vara extra tydlig så skriver man ut det hela.. Men tror nog du vet vad han mena så som resten av forumet gör.

det gör det ju visst.

i alla sammanhang M = mega m = milli

när det gäller datamängder gäller dessutom B = byte , b = bit

alla kan ju leka med dessa prefixer och komma fram till vad mb respektive MB betyder.

sen får väl sammanhang ha en liten inverkan på det hela också

snackar man om nått som bara talas om i MB, så kan man förhoppningsvis extrahera vad en person menar om han skriver mb.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av the squonk:

AMD har inte cappat HD7970 eftersom man vill IN på proffsmarknaden som ÄGS av Nvidia idag, men nu spelar det mindre roll att HD7970 har brutal DP-kapacitet till budgetpris eftersom alla tunga tillämpningar är skrivna för Nvidia. AMD saknar helt enkelt mjukvaran.

AMD kan ju alltid försöka övertala Nvidia att utveckla en CUDA kompilator för Radeonkorten.. det kommer nog gå JÄTTEBRA!

Seriöst, dock, är det något som hindrar AMD att ta fram något eget som är väldigt likt CUDA? Grunden för det är ju trots allt bara en mindre extension till C (ok det var väldigt förenklat). Så det blir lättare för utvecklare att byta plattform menar jag. För ingen verkar ju vilja ta i OpenCL.
Jag skulle iaf inte tveka en sekund att gå till det röda laget om det fanns något CUDA liknande språk/API för deras GPU'er. Compute prestandan för 7970 är ju helt uppåt väggarna!

Permalänk
Medlem
Skrivet av Boss302:

Att de kommer ösa på mer gpgpu prestanda i kommande gpuer får vi hoppas.. Annars tar jag det som att nvidia har ljugit oss rakt upp i ansiktet när de talat sig varma om gpgpu, det är framtiden o.s.v.

Det klart de har ljugit huvudet av sig. Eller dig, snarare. Men det har hjälpt dem att motivera och finansiera en teknologiutveckling som skulle kunnat ge dem fördelar i andra marknadssegment. Huruvida det nånsin betalar sig för dem (eller AMD) skall jag låta vara osagt, men med tanke på vad som händer med marknaden för diskreta grafikchip gentemot integrerade Intel-lösningar, och grafiktungt spelande på PC plattformen, har det varit väldigt intressant för nVidia och ATI att försöka skaffa sig ett annat ekonomiskt ben att stå på.

Det var patetiskt att se hur AMD motiverade GPGPU när de lanserade HD79xx korten. Köpa en 200W co-processor för 5000:- för att avlasta sånt som mobiltelefoner klarar av?

Permalänk
Skrivet av schitzo:

Det stämmer jo.

Om du går under 59fps med Vsync så kommer du egentligen köra i 28.

Har något med responsen att göra.

Nej det stämmer inte. Jag får minsann alla möjliga olika fps kombinationer när jag använder V-sync. 56fps, 58fps, 67fps, 87fps. Ja jag har en 120Hz skärm.
För mig har V-sync aldrig låst sig på 30fps. Det har bara hänt när jag kört 3D Vision. Och 3D Vision är inte V-sync.

Ok, jag fattar hur det fungerar nu. Isåfall så stämmer det. Men average fps kan fortfarande vara 56, 58, 67, 87 osv.

Permalänk
Avstängd
Skrivet av furuliden:

Nej det stämmer inte. Jag får minsann alla möjliga olika fps kombinationer när jag använder V-sync. 56fps, 58fps, 67fps, 87fps. Ja jag har en 120Hz skärm.
För mig har V-sync aldrig låst sig på 30fps. Det har bara hänt när jag kört 3D Vision. Och 3D Vision är inte V-sync.

Men fraps visar inte latensen. Fraps må visa 60fps, men inte fördröjningen eller så.

Och sedan är det ju lite skillnad på 120hz och en 60hz skärm med vsync.
Med 120hz kan du väl endast komma ner i 60hz,

Och du förstår nog inte ens vad som menas med texten. Det är inte så att din Fps "låses" till 30 eller något annat. Den går ner dit tills din dator orkar med 60. Fraps må visa 58 men du har egentligen ~29.

Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Antielefant
Skrivet av furuliden:

Nej det stämmer inte. Jag får minsann alla möjliga olika fps kombinationer när jag använder V-sync. 56fps, 58fps, 67fps, 87fps. Ja jag har en 120Hz skärm.
För mig har V-sync aldrig låst sig på 30fps. Det har bara hänt när jag kört 3D Vision. Och 3D Vision är inte V-sync.

Ok, jag fattar hur det fungerar nu. Isåfall så stämmer det. Men average fps kan fortfarande vara 56, 58, 67, 87 osv.

3DVision låser VSync, resten av tiden kör du utan oavsett vad du tror.

VSync på en 120 Hz skärm låser till:
120
60
40
30
24
20
...etc.

Får du en "udda" framerate har du inte VSync på, men möjligtvis en maxFPS-inställning.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Boss302:

Att de kommer ösa på mer gpgpu prestanda i kommande gpuer får vi hoppas.. Annars tar jag det som att nvidia har ljugit oss rakt upp i ansiktet när de talat sig varma om gpgpu, det är framtiden o.s.v.

Jag tvivlar inte en sekund på att de har ett high end kort/GPU motsvarande Tesla för Kepler-generationen på gång. Nu när dom fått den globala vetenskapscommunityn att bygga cluster med överprissatta high end (ocappade) kort och programmera i det nvidia exklusiva CUDA, vore det ju självmord att kasta det i soptunnan. Vad jag däremot tror är att vi kommer få se mindre av det i gamingkort.

Permalänk
Medlem
Skrivet av EntropyQ3:

Det var patetiskt att se hur AMD motiverade GPGPU när de lanserade HD79xx korten. Köpa en 200W co-processor för 5000:- för att avlasta sånt som mobiltelefoner klarar av?


Det hade jag missat, brukar inte ha varken tid eller ork att sitta o läsa sida upp o sida ned om hårdvara.. Har du någon länk?

Permalänk
Skrivet av Zcenicx:

3DVision låser VSync, resten av tiden kör du utan oavsett vad du tror.

VSync på en 120 Hz skärm låser till:
120
60
40
30
24
20
...etc.

Får du en "udda" framerate har du inte VSync på, men möjligtvis en maxFPS-inställning.

Jag har inte heller sagt att jag får udda fps när jag använder 3d vision.

Du menar att man inte kan få udda fps när man har v sync? Jag får det hela tiden i bf3. Det kan jag filma och visa. Men om v sync fungerar som jag nu tror så förstår jag varför fraps visar udda fps.

Permalänk
Medlem
Skrivet av furuliden:

Jag har inte heller sagt att jag får udda fps när jag använder 3d vision. Jag får udda fps när jag använder v sync i bf3. Jag kan filma och visa det.

Är det någon felvisning? Om inte frameraten på grafikkortet stämmer med skärmens uppdateringshastighet så får du tearing. Vilket är vad v-sync är till för att förhindra.

Permalänk
Skrivet av schitzo:

Men fraps visar inte latensen. Fraps må visa 60fps, men inte fördröjningen eller så.

Och sedan är det ju lite skillnad på 120hz och en 60hz skärm med vsync.
Med 120hz kan du väl endast komma ner i 60hz,

Och du förstår nog inte ens vad som menas med texten. Det är inte så att din Fps "låses" till 30 eller något annat. Den går ner dit tills din dator orkar med 60. Fraps må visa 58 men du har egentligen ~29.

Ok.
Jag kanske har 30 fps under en liten stund, men om fraps säger att jag får 58 fps då får jag 58 average. Det är inte så att fraps räknar fel eller något, den bara räknar ut medelvärdet. Under perioden som fraps tar sitt medelvärde så kanske jag fick följande fps: 30, 60, 60. (ett exempel bara) och istället för att visa att jag fick 30, 60, 60 fps så visar fraps att jag får 50fps.

Tackar, nu vet jag hur det fungerar.

Permalänk
Medlem
Skrivet av f0kkeriet:

Så kan man ha 4 Stycken GTX 680? Eller är det som gtx 460 att man bara kan ha två?

Ja du kan köra med 4st 680 om du vill
Och tänker du göra det, så måste du lägga upp ett galleri sen ;D

Permalänk
Medlem
Skrivet av whiskerer:

Nja bara vad gäller max fps, och det är väl det som är minst intressant egentligen, 680 smiskar ju på 7970 rätt rejält vad gäller min fps vilket är vad som spelar roll. Det man önskar att ju att slippa att det hackar någonsin.

Nja, det är rätt ointressant med min fps om man inte får se en graf med framerate/tid. Ett grafikkort som dippar 400 gånger ner till 40fps över 5 minuter upplevs förmodligen som mer hackigt än ett kort som dippar ner till 30fps vid 4 tillfällen över 5 minuter. Min, Max och Avg säger egentligen väldigt lite om den faktiska speluppevelsen.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av schitzo:

Ser inte vart AMD får "en hel del smisk" ? När de enligt flera recensenter, TTL på youtube (OC3D) t.ex. konstanterar att det är minimal skillnad mellan 7970 och 680 när det gäller Realtime performance, men i Benchmarks så skiner 680.

Y8RZDPjMttY

680 får ju "smisk" i metro och witcher 2 =O

Ja kollar aldrig 3dmark resultat och i dom recensionerna jag kollat nu är GTX 680 LITE BÄTTRE i 80-90% av fallen sen är det mindre och drar mindre ström.

Permalänk
Medlem
Skrivet av Boss302:

Är det någon felvisning? Om inte frameraten på grafikkortet stämmer med skärmens uppdateringshastighet så får du tearing. Vilket är vad v-sync är till för att förhindra.

Problemet med tearing uppstår i första hand när FPSen överstiger skärmens Hz, iallafall har jag uppfattat det så. Fast jag skall vara ärlig, jag märker inte alls av tearing på samma sätt sen jag skaffade mina 120 hz skärmar, varför vet jag inte. Det kan pendla mellan 300 fps i CS, till 40 fps i BF3 och jag upplever aldrig tearing fast jag kör 120 hz hela tiden (v-synk av).

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Medlem
Skrivet av Boss302:


Det hade jag missat, brukar inte ha varken tid eller ork att sitta o läsa sida upp o sida ned om hårdvara.. Har du någon länk?

En av deras slides i den gigantiska presentationsstacken som de flesta websites använde några stycken av. Inte märkligt att just den inte dök upp i någon review jag såg, både för innehållet, och för att den var en bra bit in. Man måste stålsätta sig för att orka plöja PR-material bortom slide 15 och få betalt efter slide 30...
Sparade ingen länk till den, men Google är din vän. Det notabla var att deras krystade exempel snarast tydliggjorde frånvaron av någon som helst rimlig användning av GPGPU för konsumenter generellt, för att inte tala om motivera köpet av en HD7970.

Permalänk

När kommer Geforce korten som kommer kosta runt 2-2,5k? Eller är detta kort som sakta kommer prispressad i och med geforce släpper nya? Och vilken beteckning tros den prisklassen få för en förteckning?

Visa signatur

ALIENWARE Predator 2.0 chassi svart | i7 4770k | ASUS strix GTX 970 4GB | corsair RMX750 | Corsair 16GB DDR3 1600MHZ | AOC G2460PF | Razer Blackwidow Ultimate Stealth | Razer Deathadder ELITE | Razer Tiamat 2.2

Permalänk
Avstängd

I grunden så är nvidia nya kort 10-15% bättre beroende på vilken spel man spelar med en upplösning på 1080p och de drar mindre ström samtidigt som de redan är billigare.

Ser inte varför man skulle vilja ha ett 7970 (framför allt om man utgår från att drivarna till 7900 verkar vara sämst av vad jag läst)

Vill dock personligen ha ett 7970 för 3500kr, de hade varit så jävla prisvärt.

Permalänk
Medlem
Skrivet av schitzo:

Ser inte vart AMD får "en hel del smisk" ? När de enligt flera recensenter, TTL på youtube (OC3D) t.ex. konstanterar att det är minimal skillnad mellan 7970 och 680 när det gäller Realtime performance, men i Benchmarks så skiner 680.
680 får ju "smisk" i metro och witcher 2 =O

Så när 680 vinner ett test är det "minimal skillnad" men när 7970 vinner är det "smisk"? Låter lite vinklat enligt mig. Sen är alla test "realtime performance", jag tror det inte räknas om ett test är förrendrerat.

Min egen slutsats just nu;
Ska man köpa ett singel-GPU-kort för 4500-5000 så gäller GTX 680 just nu. Bästa köp för de pengarna.

Har man däremot ett HD 7970 sen tidigare kan man vara väldigt nöjd med det, men jag skulle inte köpa ett från idag och fram till något ändras (sänkt pris t.ex.). Jag har haft AMD/ATI tidigare och har Nvidia just nu, jag köper alltid det kort som ger mig mest för pengarna i den prisklass jag tänkt mig.

Permalänk
Medlem

Jag har inte läst färdigt än, framföralt inte alla 16sidor på forumet. Sen vilken D3D eller OpenGL, Eller VESA standard eller bärjade vsync fungera såhär.
"V-sync i traditionell mening innebär att bildfrekvensen låses till skärmens uppdateringsfrekvens, vanligtvis 60 FPS (60 Hz) – en bildruta per uppdatering. Poängen är att undvika linjer och andra grafikfel ("tearing") som annars kan uppkomma när flera bildrutor ska ritas upp av skärmen vid samma uppdatering.

Nackdelen med denna lösning är att om bildfrekvensen understiger skärmens uppdateringsfrekvens så måste grafikkortet gå ned till hälften så många bildrutor per sekund. Ett grafikkort som vid en tung scen kan producera exempelvis 58 FPS, bara en gnutta mindre än optimala 60 FPS, tvingas stanna vid 30 FPS. En så låg bildfrekvens upplevs ofta som ryckig ("stuttering")."

Bättre kan ni swec
Edit var inte tydlig. "Nackdelen med denna lösning är att om bildfrekvensen understiger skärmens uppdateringsfrekvens så måste grafikkortet gå ned till hälften så många bildrutor per sekund"

Edit2: Låter nu då jag läst mer som en fps limmeter, det använder jag på flera spel som inte drar så mycket för att int få fläkten på mitt 480 att löpa amok då en 2d meny dyker upp och man får 1400fps eller som i skyrim då jämna musrörelser. Så om de kan implementera det så att man kan använada det i multiplayer spel utan att bli fusk anklagad så borde amd kunna göra det i sinna drv också. FPS limiters går att fixa i motorer eller via modar på d3d*.dll. Så nytt är det inte. Jag är inte inponerad än. Men om jag får ett så.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Avstängd
Skrivet av Buio:

Så när 680 vinner ett test är det "minimal skillnad" men när 7970 vinner är det "smisk"? Låter lite vinklat enligt mig. Sen är alla test "realtime performance", jag tror det inte räknas om ett test är förrendrerat.

Varför tror du jag la till "" ?

Fanboy!

Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Quizmaster Malmö 22

Känns så spännande och stort när sådana här lyckade lanseringar sker. Som när Radeon 9700 Pro kom. Slog ut Nvidias senaste och regerade på toppen i ett år av vad jag kommer ihåg.

Fast med mitt GTX 570 så klarar jag mig (tyvärr) tills årets slut då deras nästa grej anländer.

Skrivet av mooseslayer:

Green is mean red is dead

Skickades från m.sweclockers.com

Haha de va fyndigt

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Avstängd

Ang. texten i recensionen:

"DICE senaste Battlefield-titel bjuder på både DirectX 11-grafik och tung fysik."

Jag förstår inte, får Swec support och pengar från DICE eller något?
Vad är det för speciellt inom DX11 som BF3 använder sig av?
Var är den "tunga" fysiken? Pinsam fysik kan jag dock förstå

Visa signatur

GPU: Sapphire HD7950 3GB OC CPU: i5 2500K 4.4GHz KYL: Scythe Mugen 2
MOBO:
Gigabyte Z68X-UD3H B3 RAM: GSkill 8GB 1600MHz PSU: Corsair TX650W
MUS: Logitech G400 TB: Logitech G15 SKÄRM: BENQ G2220HD // G2400W
HÖRLUR: HD558 LJUDKORT: Xonar DX CASE: Define R3 SSD: NOVA 2 60GB MECH: 3.75TB

Permalänk
Medlem
Skrivet av Nilzohn:

Snyggt jobbat, Nvidia!

Till Sweclockers-redaktionen; Det ni redovisar är max effekt, inte ström eller energi.
Ändra "Strömförbrukning" till "Uttagen maxeffekt" så blir det bra.
Ström mäts i Ampere, elektrisk energi i kWh (eller enligt SI egentligen Joule).

Fel. Man kan inte påstå att en en beskrivning av en typ anv energi som är samma sak som en beskrivning av generel energi.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av schitzo:

Ang. texten i recensionen:

"DICE senaste Battlefield-titel bjuder på både DirectX 11-grafik och tung fysik."

Jag förstår inte, får Swec support och pengar från DICE eller något?
Vad är det för speciellt inom DX11 som BF3 använder sig av?
Var är den "tunga" fysiken? Pinsam fysik kan jag dock förstå

Jadu, det är nog bara en generell tolking om spelets fysikmotor av personen som skrev recensionen, som jag håller med om till 100%.

Du kanske inte har tänkt på det, men att ens ha en så bra "destructible environment" som bf3 har, så krävs det nog en väldigt genomarbetad fysikmotor för att få allt detta att fungera. Bara det tycker jag är bevis nog för att bf3 har "tung fysik" i sig.

Visa signatur

| Fractal Design R4 White | Intel I5 6600k@4Ghz| Asus Z170-A | MSI GTX 970 @1425Mhz | Corsair 16GB DDR4 2133mhz | Samsung 840 250GB | Corsair 650Watt nätagg |

https://soundcloud.com/symbolofficial