Inlägg

Inlägg som Whiip har skrivit i forumet
Av Whiip
Skrivet av AkUs:

Här är vi ute o cyklar deluxe.

http://tpucdn.com/reviews/AMD/HD_7970_GHz_Edition/images/powe...

Om något är överprisat skit är det 7970ghz edition. Dom fabriksklockar vanliga 7970 så den för betydligt högre förbrukning och värmeutveckling
per watt, riktigt över vad arkitekturen står pall. Sen döper om det och tar mera betalt. 25% högre strömförbrukning för 11% högre klockfrekvens...

Jag stog mellan 7970 och GTX 670, blev ett GTX 670 för jag personligen haft stora problem med AMD's drivrutiner, oavsett hur dom skalar si och så
i crossfire så är dom betydligt buggigare än nVIDIAs drivisar. Går inte att sticka under stolen med det. Annars är AMD prisvärda kort per krona.

Finns inget som pekar på att AMD har buggigare drivrutiner än Nvidia.

Av Whiip
Skrivet av FL3JM:

Det medföljande FAN Xpert 2 ska ju kunna justera fläktarna beroende på temperatur. Man kör "Fan Auto Tuning" så ska den varva ner fläktarna en efter en och kolla hur lågt dom kan gå utan att dom stannar. Den lyckas göra så med två chassifläktar men de två fläktarna jag har på radiatorn har jag kopplat till CPU och CPU_OPT och dom varvar den inte ner alls utan kör på max oavsett temp. Två 120mm fläktar på 2500 rpm är inte jätteskoj, önskar jag iaf kunde köra med ena avstängd när man slösurfar och den andra på jättelågt. :/

Gör jag något fel eller? Jag förstår inte poängen med den här runkiga fläktstyrningen annars.

Har för mig att CPU och CPU-Opt endast klarar av att styra fläktar som har PWM.

Om jag har fel så kan du testa att styra fläktarna från BIOS. Avinstallera Fan Xpert först.

Av Whiip
Skrivet av pellepluttman:

jag beställde och betalade min 29:e juni från RS och jag har fått besked då jag skickade mail vilket tagit drygt två veckor innan dom besvara det att min leverans kommer mellan den 8-14 oktober då jag hade leverans numret då för det datumet , så man får vänta och se

Beställ från Farnell istället så får du den inom 3 veckor.

Av Whiip

Då är det alltså bekräftat att den väsnas en hel del. Synd, får satsa på ett chassi med plats för ATX istället.

Av Whiip
Skrivet av Troberg:

Såpass.
Tror inte den kommit bort, fått samma mejl som han ovan/under fått.
Min var beräknad till att komma mitten på september men har nu fått 4veckors försening så man får se när den väl kommer.

Skrivet av ParasiteX:

Jag fick själv ett mail nyligen där det stod min har blivit försenad upp till 4 veckor.. och den var initiellt en estimerade leverans tid på 12 veckor, sen jag beställde i juli...

Ni beställer från fel sida.

http://www.element14.com/community/groups/raspberry-pi

Där är det endast 3 veckors väntetid. Min skickades efter 2 veckor.

Av Whiip
Skrivet av Segas:

Jag har inte sett en ända där i standardutförande att ett AMD-kort slår nVidia på fingrarna i prestanda, länka gärna - eller titta på Sweclockers tester?

http://www.techpowerup.com/reviews/Palit/GeForce_GTX_660_Ti_J...

http://www.sweclockers.com/recension/15750-nvidia-geforce-gtx...

"Men GE räknas inte...:((("
Jo det gör det.

Av Whiip
Skrivet av Segas:

Kul? Det sa jag inte. Du är kanske medveten om problemen rörande tillverkningsprocessen? Med det i åtanke är det knappast drivande vinst att ha två olika tekniker rullandes på samma band, från samma tillverkare, för att slåss om högprestandakorten.

Nu är detta bara min spekulation, men det låter väl inte som en omöjlighet?

Tittar man på diverse grafer och tabeller så piskar (väl tilltaget kanske) ju nVidia sin konkurrent ganska hårt - inte bara i Battlefield.

Skickades från m.sweclockers.com

Tittar man på grafer så ligger ofta AMD faktiskt före Nvidia.

Av Whiip

Planering verkar inte vara Nvidias starkaste sida.

Av Whiip

Argumentet att 7970GE inte får jämföras med 680 påminner mig om tiden då AMDs 5970 ABSOLUT inte fick jämföras med Nvidas 480. Det var ju TVÅ grafikkort enligt en del.

Av Whiip
Av Whiip

Tror det va ett test på Tomshardware som visade att man med 3 gpuer fick betydligt mindre microstuttering än med 2 gpuer.

Found it.
http://www.tomshardware.com/reviews/radeon-geforce-stutter-cr...

Av Whiip
Skrivet av Burks:

ja? var det inte mitt inlägg eller?

Gtx 680 har en tdp på 195W Man skulle kunna slänga på ännu mera på kortet låt oss säga 250W, Då skulle kortet prestera något enormt mycket bättre. Amd klarar ju inte av att riktigt slå Nvidia på fingrarna (min "teori"). visst dera GHz kort var lite snabbare men till vilken kostnad

Nvidia 680 = 195W

Amd 7970 Ghz = 250W

bla.

Sen spekuleras det förfullt att Nvida har sin "Big kepler" GK110 på gång. länk

Om denna skulle användas till Geforce serien så skulle det bli en jäkla prestandaskjus. och amd skulle få krypa.

Sen så har ju nvidia det snabbaste kortet ute också om du inte har missat det, Gtx 690.

Så vad är det jag inte skulle tro på????

Tror du verkligen att det är så lätt som du får det att låta? Höja frekvenser är i princip det enda Nvidia kan göra tills GK11x släpps och tillskillnad från 7970 så lanserades 680 med redan höga frekvenser.

GK110 lär släppas i anslutning till AMDs 8000-serie och är därför irrelevant just nu.

AMD har snabbaste GPUn.

Att Nvida när som helset kan slänga ut en GPU som krossar AMD men väljer att inte göra det.

Av Whiip
Skrivet av Burks:

Klart de kan producera ett starkare kort utan problem, Men man behöver inte att göra det. För vad har amd att komma med? Nvidia ligger högst på prestanda toppen och behöver inte utöka den mera, Istället kan man vara kvar där för att "mjölka pengar" av folk.

Allvarligt, tror du själv på det där?

Av Whiip
Skrivet av karre03:

Hur stänger man av hardware acceleration i flash då? För mina grafikrutiner återställs när jag spelar spel och har youtube uppe samtidigt. snälla hjälp!

Gå in på valfri video(på youtube), högerklicka på videon, klicka på "Settings", bocka ur "Enable hardware acceleration".

Av Whiip

Det finns inte monteringshål för 120/140mm fläktar i fronten, tyvärr.

Av Whiip

Tror det är EIST/Speedstep som ska stängas av.

Av Whiip
Skrivet av RaBlack:

Lägg av med detta det finns ingen som kör NVIDIA som slår av PHYSX och kollar FPS och inte vill ha EXTRA ögongodis när man betalat över 4000kr:- för ett kort.
Tycker alla tester skall köras med ON PHYSX och istället säga antingen mer FPS eller mer ögongodis... SLUTA STÄNGA AV PHYSX på era tester detta verkar handla om att jaga FPS vs ögongodis..... UTNYTTJA KORTET TILL MAX och sluta jaga FPS hela tiden, i slutändan tjänar även AMD ägarna på detta.

Finns runt 400 spel som använder detta tack vare NVIDIA PHYSX.

PhysX är fortfarande irrelevant då det används på tok för sällan.

Endast ett tiotal av dessa 400 titlar använder GPU-accelererad PhysX, resten fungerar lika bra med AMD.

Av Whiip
Skrivet av RaBlack:

Välj NVIDIA du kommer förstå varför när du har den.... Och NJA till att AMD har prestandatronen idag, inte enligt massa andra tester http://www.nordichardware.se/test-lab-grafik/46075-amd-radeon... . Det mesta handlar om PR trick från AMDs sida..... Sen kan man välja GTX670 och ändå slå 7970 i vissa spel och gillar man att överklocka så kan den t.o.m komma upp i 680ns prestanda, sen får man inte glömma att PhysX allt mer och mer används av nyare 3dmotorer för spel o.s.v. som både AMD och Nvidia har nytta av beroende på om det är skrivet med PSS o.s.v.

http://physxinfo.com/wiki/Main_Page
http://physxinfo.com/index.php?p=gam&f=all

Seriöst? Det har varit och kommer även i framtiden vara oerhört få stora spel(små också för den delen) som lanseras med Physx.

Av Whiip
Skrivet av zAjtarN:

F1B0E-C62D5-21064-60F9E-02F00

Snabbast vinner!

Tackar!

Av Whiip
Skrivet av Gender Bender:

Självklart presterar 7970 bättre på samma klockfrekvens, 7970 har ju trots allt 1 miljard fler transistorer samt bredare minnesbuss, så konstigt vore det ju annars. Dock så ser man att kortet inte är gjort för dessa klockfrekvenser genom att titta på strömförbrukningen som ligger på över 400W. Tahiti XT är 58 mm2 större än vad GK104 är, och därmed drar den mer ström och utvecklar mer värme. Ännu värre blir det ju i fall man dessutom kör med Bulldozer som även den slukar enormt mycket ström jämfört med Intels processorer. Då är man uppe i runt 550W, vilket då blir närmare 200W mer än om man kör en Intel + Nvidia-lösning.

Skillnaden i klockfrekens är väldigt lik skillnaden i strömförbrukningen och vad har Intel och Bulldozer med det hela att göra?